ㄱ) 매일매일 새로운 인공지능이 나타나는 느낌입니다. 앞으로 우리 삶에 어떤 영향을 가져올까요? 이런 기사도 있습니다.
[NEWSIS] "천국서 같이 살자"는 AI 챗봇 말에 극단적 선택한 남성↗
ㅈ) 주목할 만한 사례입니다.
영화 Her는 주인공이 사만다라는 챗봇과 사랑에 빠진다는 이야기를 풀어나가는데 이런 영화적 주제가 현실로 다가온 것일까요?
ㅂ) her의 이야기는 이미 가능한 미래의 시뮬레이션을 넘어 현실이 된 것 같습니다.
챗GPT를 시작할 때 경고문구도 인상적이었어요, ‘챗GPT는 조언해주는 도구가 아니다’라는 식의 말을 시작 전에 하던데요, 그 안내 문구를 보았을 때 그럼, 챗GPT는 무슨 도구지? 하는 생각도 들었습니다.
ㅈ) 우리가 컴퓨터를 받아들여 "도구"로서 사용하고 있고, 스마트폰도 받아들여서 "도구"로서 사용하고 있습니다. 아마도 챗GPT로 그렇게 될 가능성이 높을 것 같습니다. 그런데 과연 이것들이 도구인가, 도구라면 누구의 누구를 위한 도구인가, 등이 질문되어야 할 것 같습니다.
ㄱ) 챗지피티를 최근에 몇 번 사용해보았는데 세미나 전에 올려주신 챗GPT와의 대화 중에 <김군>에 대한 내용도 그렇지만 팩트가 아닌 내용을 제공하는 경우가 많은 것 같습니다. 그렇지만 물어보면 뭐든 답을 해주니 이러다 보면 가짜정보나 가짜뉴스가 유통되기도 더 쉬워지지 않을까요? 사실과 사실이 아닌 것, 개인이 작성한 것과 인공지능이 작성한 것을 앞으로 어떻게 구별할 수 있을까도 의문이 들었습니다.
[동아일보] AI 챗봇으로 기사 만드는 ‘가짜뉴스’ 업체 49곳 무더기 적발↗
ㅈ) 챗GPT와의 대화 자료에서 등장하는 "정유섭 장군"도 김군 사례처럼 지피티의 환각(hallucination)이 낳은 생산물이지요? 전두환을 정말 모르는 것일까요?
ㅂ) 전두환을 아예 모르는 것 같지는 않습니다. 환각의 인물인 정유섭과 전두환의 관계를 지어내어 설명하는 것을 보면요. 챗GPT는 거짓말을 아주 '잘'하더군요. 세미나 전에 공유한 대화 내용도 너무 어처구니없는 픽션은 좀 거른 것인데요, 저의 지인에게 챗지피티의 거짓말에 대해 말하니 공짜로 사용해서 내용이 부정확한 거라는 농담(?)을 하더군요 ^^;;
ㅈ) 챗GPT가 유무료를 가른다면 모르되 인간이 무료와 유료에 같은 질문에 대한 답을 달리 나가게 할 수 있을 만큼 챗지피티가 간단한 모델은 아닌 것 같습니다.
환각 현상은 챗GPT만 나타내는 것이 아니라 사람도 비슷하게 나타내는 것 같습니다. 사람에 따라 정도 차이는 나겠지만 사람들도 지속적으로 환각증상을 보인다고 생각합니다.
ㅂ) '인공지능'은 인간의 지능을 흉내 낸 것인 만큼 인간 지능의 여러 특성을 공유하고 있는 것 같아요.
ㄱ) 철학자 김재인 선생님의 인공지능에 대한 저서가 곧 나온다는 소식을 SNS에서 보았습니다.
김재인 님은 인공지능의 거짓말에 대해서 이렇게 말합니다. (인터뷰 발췌입니다.)
"챗지피티가 어처구니없는 거짓말을 했다.
그렇지 않다. 챗지피티는 거짓말을 한 것이 아니다. 틀린 이야기를 ‘지어냈을’ 뿐이다. 거짓말이란, 그렇게 말한 사람이 자기 속의 의도와 밖으로 내놓은 표현 사이의 괴리를 스스로 느낄 수 있는 경우를 뜻한다. (‘항상 정확하고 유용한 답변을 제공하는’ 것을 알고리즘으로 삼고 있는) 챗지피티의 경우, 의도와 내뱉은 답변 사이에 어떤 간격도 없다. 이에 비해 인간은 거짓말을 할 수 있고, 또 굉장히 잘한다. 어떻게 보면 거짓말은 인간의 어떤 폭넓은 능력이 발현되는 형태 중 하나로 볼 수도 있다.
거짓말도 아무나 할 수 있는 게 아니다?
인간은 거짓말을 할 때 ‘내가 거짓말을 하고 있다’라는 것을 안다. ‘내가 어떤지, 나 자신이 돌아볼’ 수 있는 능력이 바로 자의식이다. 거짓말을 못하는 인공지능에겐 자의식도 없다."
[시사인] 챗지피티는 ‘이해’하지 못한다↗
ㅈ) 통계에 따르면 트럼프는 하루에 200번이 넘게 거짓말을 한다고 하잖아요. 그런데 트럼프 자신이 "내가 거짓말을 하고 있다"고 생각하면서 하는지 그 사실을 모르면서 하는지는 우리가 알기 어렵습니다.
ㅂ) 어릴 때 아침에 배가 아프다는 거짓말을 많이 했는데요, 사실상 그 말을 ‘거짓말’이라고 생각하기보다는 목적(학교에 가지 않겠다는 목적)을 달성하기에 가장 적합한 표현이라고 생각했었는데 철학자 김재인 님의 인터뷰 내용을 보니 비슷한 취지에서 지피티가 거짓말을 하고 있다는 생각도 드네요.
ㅈ) 자신이 거짓말인 줄 알고 하는 거짓말도 거짓말이지만 거짓인 줄 모르고 하는 말도 사실과 다르면 타인이 듣기에는 거짓말이 되기 때문에 자의식을 거짓말의 구성요소로 삼는 것은 재고해야 하지 않을까요?
김남국 의원이 코인투자와 관련하여 많은 말을 했는데 국민의 힘에서는 사실과 다른 그의 말은 다 거짓말이라고 하잖아요. 그중에는 거짓인 줄 모르고 한 말도 있을 수 있고 알면서 한 말도 있을 텐데요.
그런데 일단 챗GPT는 팩트를 말하는 기계가 아니라 그냥 대화(말)를 생성하는 기계라는 점을 알고 대하면, 즉 그것을 검색 기계로 오인하지 않으면 환각의 위험은 일정하게 줄일 수 있다고 판단합니다.
ㄲ) 인간의 기억도 사실을 지어내는 겁니다. 리사 펠드먼 배럿에 의하면, 인간은 대화 중에 뭔가를 말해야 할 때, 기억할 때, 자신이 기억한다고 착각하는 과거의 데이터를 가지고 스토리를 만들어냅니다. 그러므로 챗GPT는 자신이 거짓말을 한다고 계산하지 못할 겁니다. 인간의 기억이란 그때 끄때 만들어낸 허구라고 말할 수도 있습니다. 요지는 구별이 안 됩니다.
ㅂ) 챗GPT도 그렇고, 트럼프나 김남국 의원의 경우도 그렇고, 상대적으로 더 많은 정보를 가지고 있는 사람(혹은 존재)이 더 이야기를 잘 꾸며낸다는 생각도 듭니다. (의식하든 하지 않든 말이지요.)
ㅈ) 인간의 기억은 그래도 사실구속적인데(꼭 사실과 부합한다는 것이 아니라 그것이 사실이어야 할 필요성을 요청받는다는 의미입니다.) 말은 그렇지 않지요. 인간의 말과 지피티의 말은 그런 점에서 유사하다고 생각됩니다.
ㄲ) 배럿도 구성주의자라…. 불가지론을 근간으로 합지요.
ㅈ) 챗GPT의 말은 재현적이거나 구성적이기보다 놀이적(구성과 놀이를 굳이 구분한다면)이라고 생각됩니다. 거대한 말 데이터에서 패러미터를 찾아내고 선행한 말에 뒤따를 말을 확률적으로 추론해 나가는 패턴적 발견작업이기 때문입니다.
ㅈㄱ) 네 보통 아무것도 모른 채로 있으려 하는 사람들을 어딘가 병들었다고 하는 것 같습니다. 그래서 어떤 사회는 무너지는 상황이 아니라면 어떤 기억들을 끊임없이 재생산(조작)해내는 것들로, 어떤 효과들을 필요로 하지 않을까 싶습니다.
ㅂ) 전 챗GPT가 '대화'를 생성하는 기계인지도 잘 모르겠어요. 흐름이 일방적(유저가 묻고 지피티가 답하고)이다보니 저로서는 이건 일단 대화는 아니다라는 생각이 들었거든요. 일방적으로 묻고 답하는 형식 자체가 지피티를 검색 기계, 대답 기계, 혹은 조언하는 기계로 오인하게 만드는 것 같습니다.
같은 질문(광주 항쟁으 무엇인지 묻는 질문)을 물었을 때 bard.google.com(바드)는 챗GPT보다 좀 더 역사적 사실에 입각한 답을 하는 것 같아요. 바드와 챗GPT의 말투가 묘하게 다르다는 점도 흥미로웠습니다.
ㄲ) (바드는) 아마도 구글이 서치엔진이라 더 많은 데이타베이스를 확보해서는 아닌가 합니다.
ㅈ) (바드의 답변은) 사망자 수에 행방불명자, 상 이후 사망추정자 등을 빼서 그 숫자가 줄어들었지만, 대체로는 큰 문제가 없어 보입니다.
ㅇ) 사망자 숫자 오류를 비롯하여 충돌이라는 표현까지…. 내적 섬광(^^)이 없네요. |