제 48 호
(통권 78호) 2023. 5. 28
🏗️ 열린 세미나 🏗️


대장동 카르텔의 기원




6월 첫 번째 세미나 시간에는는 최근 '뉴스타파 X kbs시사직격 X mbcPD수첩'의 공동취재 영상자료를  바탕으로 대장동 카르텔에 관해 알아보고자 합니다. 해당 자료(특히 2부, 로비의 로비의 로비)는 스케일이 커서 아직 다 드러나지 않는 이 사건의 윤곽을 다중-부동산업자-로비스트-검찰-언론 등으로 이어지는 연계망을 통해 일정하게 드러내 줍니다. 뉴스타파 DATA 포털에 정영학 녹취록이라는 방대한 분량의 자료도 공개되어 있으니 이를 참조하면서 이 사건의 의미를 조금씩 더듬어 나가 보는 시간을 가지도록 하겠습니다.
열린 세미나에는 관심 있는 누구나 참여할 수 있습니다. 많은 분들의 참여를 기다립니다!


  • 일정: 6월 1일 목요일 저녁 7시 30분
  • 장소: 카카오톡 <열린 세미나> 오픈채팅방

  • 참고자료
👇  지난 세미나 갈무리  👇
 
인공지능 챗GPT 그리고 5·18 민중항쟁


 5월 18일 (목) 저녁 7시 30분

 

소주재
1. 5·18 역사인식을 통해 살펴보는 인공지능
2. 인공지능과 미래-사회의 관계
5·18 역사인식을 통해 살펴보는 인공지능

ㄱ) 매일매일 새로운 인공지능이 나타나는 느낌입니다. 앞으로 우리 삶에 어떤 영향을 가져올까요? 이런 기사도 있습니다.

[NEWSIS] "천국서 같이 살자"는 AI 챗봇 말에 극단적 선택한 남성


ㅈ) 주목할 만한 사례입니다.

영화 Her는 주인공이 사만다라는 챗봇과 사랑에 빠진다는 이야기를 풀어나가는데 이런 영화적 주제가 현실로 다가온 것일까요?


ㅂ) her의 이야기는 이미 가능한 미래의 시뮬레이션을 넘어 현실이 된 것 같습니다.

챗GPT를 시작할 때 경고문구도 인상적이었어요, ‘챗GPT는 조언해주는 도구가 아니다’라는 식의 말을 시작 전에 하던데요, 그 안내 문구를 보았을 때 그럼, 챗GPT는 무슨 도구지? 하는 생각도 들었습니다.


ㅈ) 우리가 컴퓨터를 받아들여 "도구"로서 사용하고 있고, 스마트폰도 받아들여서 "도구"로서 사용하고 있습니다. 아마도 챗GPT로 그렇게 될 가능성이 높을 것 같습니다. 그런데 과연 이것들이 도구인가, 도구라면 누구의 누구를 위한 도구인가, 등이 질문되어야 할 것 같습니다.


ㄱ) 챗지피티를 최근에 몇 번 사용해보았는데 세미나 전에 올려주신 챗GPT와의 대화 중에 <김군>에 대한 내용도 그렇지만 팩트가 아닌 내용을 제공하는 경우가 많은 것 같습니다. 그렇지만 물어보면 뭐든 답을 해주니 이러다 보면 가짜정보나 가짜뉴스가 유통되기도 더 쉬워지지 않을까요? 사실과 사실이 아닌 것, 개인이 작성한 것과 인공지능이 작성한 것을 앞으로 어떻게 구별할 수 있을까도 의문이 들었습니다.

[동아일보] AI 챗봇으로 기사 만드는 ‘가짜뉴스’ 업체 49곳 무더기 적발


ㅈ) 챗GPT와의 대화 자료에서 등장하는 "정유섭 장군"도 김군 사례처럼 지피티의 환각(hallucination)이 낳은 생산물이지요? 전두환을 정말 모르는 것일까요?


ㅂ) 전두환을 아예 모르는 것 같지는 않습니다. 환각의 인물인 정유섭과 전두환의 관계를 지어내어 설명하는 것을 보면요. 챗GPT는 거짓말을 아주 '잘'하더군요. 세미나 전에 공유한 대화 내용도 너무 어처구니없는 픽션은 좀 거른 것인데요, 저의 지인에게 챗지피티의 거짓말에 대해 말하니 공짜로 사용해서 내용이 부정확한 거라는 농담(?)을 하더군요 ^^;;


ㅈ) 챗GPT가 유무료를 가른다면 모르되 인간이 무료와 유료에 같은 질문에 대한 답을 달리 나가게 할 수 있을 만큼 챗지피티가 간단한 모델은 아닌 것 같습니다.

환각 현상은 챗GPT만 나타내는 것이 아니라 사람도 비슷하게 나타내는 것 같습니다. 사람에 따라 정도 차이는 나겠지만 사람들도 지속적으로 환각증상을 보인다고 생각합니다.


ㅂ) '인공지능'은 인간의 지능을 흉내 낸 것인 만큼 인간 지능의 여러 특성을 공유하고 있는 것 같아요.

 

ㄱ) 철학자 김재인 선생님의 인공지능에 대한 저서가 곧 나온다는 소식을 SNS에서 보았습니다.

김재인 님은 인공지능의 거짓말에 대해서 이렇게 말합니다. (인터뷰 발췌입니다.)

"챗지피티가 어처구니없는 거짓말을 했다.

그렇지 않다. 챗지피티는 거짓말을 한 것이 아니다. 틀린 이야기를 ‘지어냈을’ 뿐이다. 거짓말이란, 그렇게 말한 사람이 자기 속의 의도와 밖으로 내놓은 표현 사이의 괴리를 스스로 느낄 수 있는 경우를 뜻한다. (‘항상 정확하고 유용한 답변을 제공하는’ 것을 알고리즘으로 삼고 있는) 챗지피티의 경우, 의도와 내뱉은 답변 사이에 어떤 간격도 없다. 이에 비해 인간은 거짓말을 할 수 있고, 또 굉장히 잘한다. 어떻게 보면 거짓말은 인간의 어떤 폭넓은 능력이 발현되는 형태 중 하나로 볼 수도 있다.

거짓말도 아무나 할 수 있는 게 아니다?

인간은 거짓말을 할 때 ‘내가 거짓말을 하고 있다’라는 것을 안다. ‘내가 어떤지, 나 자신이 돌아볼’ 수 있는 능력이 바로 자의식이다. 거짓말을 못하는 인공지능에겐 자의식도 없다."

[시사인] 챗지피티는 ‘이해’하지 못한다


ㅈ) 통계에 따르면 트럼프는 하루에 200번이 넘게 거짓말을 한다고 하잖아요. 그런데 트럼프 자신이 "내가 거짓말을 하고 있다"고 생각하면서 하는지 그 사실을 모르면서 하는지는 우리가 알기 어렵습니다.


ㅂ) 어릴 때 아침에 배가 아프다는 거짓말을 많이 했는데요, 사실상 그 말을 ‘거짓말’이라고 생각하기보다는 목적(학교에 가지 않겠다는 목적)을 달성하기에 가장 적합한 표현이라고 생각했었는데 철학자 김재인 님의 인터뷰 내용을 보니 비슷한 취지에서 지피티가 거짓말을 하고 있다는 생각도 드네요.


ㅈ) 자신이 거짓말인 줄 알고 하는 거짓말도 거짓말이지만 거짓인 줄 모르고 하는 말도 사실과 다르면 타인이 듣기에는 거짓말이 되기 때문에 자의식을 거짓말의 구성요소로 삼는 것은 재고해야 하지 않을까요?

김남국 의원이 코인투자와 관련하여 많은 말을 했는데 국민의 힘에서는 사실과 다른 그의 말은 다 거짓말이라고 하잖아요. 그중에는 거짓인 줄 모르고 한 말도 있을 수 있고 알면서 한 말도 있을 텐데요.

그런데 일단 챗GPT는 팩트를 말하는 기계가 아니라 그냥 대화(말)를 생성하는 기계라는 점을 알고 대하면, 즉 그것을 검색 기계로 오인하지 않으면 환각의 위험은 일정하게 줄일 수 있다고 판단합니다.


ㄲ) 인간의 기억도 사실을 지어내는 겁니다. 리사 펠드먼 배럿에 의하면, 인간은 대화 중에 뭔가를 말해야 할 때, 기억할 때, 자신이 기억한다고 착각하는 과거의 데이터를 가지고 스토리를 만들어냅니다. 그러므로 챗GPT는 자신이 거짓말을 한다고 계산하지 못할 겁니다. 인간의 기억이란 그때 끄때 만들어낸 허구라고 말할 수도 있습니다. 요지는 구별이 안 됩니다.


ㅂ) 챗GPT도 그렇고, 트럼프나 김남국 의원의 경우도 그렇고, 상대적으로 더 많은 정보를 가지고 있는 사람(혹은 존재)이 더 이야기를 잘 꾸며낸다는 생각도 듭니다. (의식하든 하지 않든 말이지요.)


ㅈ) 인간의 기억은 그래도 사실구속적인데(꼭 사실과 부합한다는 것이 아니라 그것이 사실이어야 할 필요성을 요청받는다는 의미입니다.) 말은 그렇지 않지요. 인간의 말과 지피티의 말은 그런 점에서 유사하다고 생각됩니다.


ㄲ) 배럿도 구성주의자라…. 불가지론을 근간으로 합지요.


ㅈ) 챗GPT의 말은 재현적이거나 구성적이기보다 놀이적(구성과 놀이를 굳이 구분한다면)이라고 생각됩니다. 거대한 말 데이터에서 패러미터를 찾아내고 선행한 말에 뒤따를 말을 확률적으로 추론해 나가는 패턴적 발견작업이기 때문입니다.


ㅈㄱ) 네 보통 아무것도 모른 채로 있으려 하는 사람들을 어딘가 병들었다고 하는 것 같습니다. 그래서 어떤 사회는 무너지는 상황이 아니라면 어떤 기억들을 끊임없이 재생산(조작)해내는 것들로, 어떤 효과들을 필요로 하지 않을까 싶습니다.


ㅂ) 전 챗GPT가 '대화'를 생성하는 기계인지도 잘 모르겠어요. 흐름이 일방적(유저가 묻고 지피티가 답하고)이다보니 저로서는 이건 일단 대화는 아니다라는 생각이 들었거든요. 일방적으로 묻고 답하는 형식 자체가 지피티를 검색 기계, 대답 기계, 혹은 조언하는 기계로 오인하게 만드는 것 같습니다.

같은 질문(광주 항쟁으 무엇인지 묻는 질문)을 물었을 때 bard.google.com(바드)는 챗GPT보다 좀 더 역사적 사실에 입각한 답을 하는 것 같아요.  바드와 챗GPT의 말투가 묘하게 다르다는 점도 흥미로웠습니다.


ㄲ) (바드는) 아마도 구글이 서치엔진이라 더 많은 데이타베이스를 확보해서는 아닌가 합니다.

 

ㅈ) (바드의 답변은) 사망자 수에 행방불명자, 상 이후 사망추정자 등을 빼서 그 숫자가 줄어들었지만, 대체로는 큰 문제가 없어 보입니다.


ㅇ) 사망자 숫자 오류를 비롯하여 충돌이라는 표현까지…. 내적 섬광(^^)이 없네요.

2. 인공지능과 미래-사회의 관계

ㄱ) 최근에 갈무리에서 나온 <실재론적 마술>의 저자 티머시 모턴은 인공지능에 관해 가끔 트윗을 올립니다. 자본주의를 적응형 ai라고 보는 아래 트윗이 흥미로웠습니다.

"Capitalism is an adaptive AI that machine learns how to extract life from the biosphere with increasing efficiency and without a logical end point.

자본주의는 점점 더 효율적으로, 그리고 논리적인 종점이 없이, 생물권에서 생명을 추출하는 방법을 기계 학습하는 적응형 AI이다."

티모시 모턴의 트윗


ㅂ) 자본주의를 특정방법을 기계 학습하는 AI로 설명하는 대목이 무척 흥미롭네요!


ㅈ) 생물권에서 생명을 추출한다는 것이 무슨 의미일까요?

챗GPT(구글의 바드도 공개되었으므로 우리 논의를 대표할 수 있는 용어는 아닌 것 같은데)가 추출적인 것은 맞는데 엄청난 자연자원에 대한 추출에 의존합니다. 블록체인이 그렇듯이 1750억개의 패러미터를 돌리는데 들어가는 에너지가 막대할 뿐만 아니라 엄청난 대수의 컴퓨터를 돌리기 때문에 광물자원에 대한 값싼 추출에 의존합니다.


ㅂ) [한겨레] 대화 한 번에 ‘생수 한 병씩’…챗GPT의 불편한 진실


ㄱ) 관련해서 이런 기사도 있습니다.

[미디어오늘] 챗GPT와 디지털 식민지


ㄲ) 챗GPT의 내용이 사회적으로 의미를 가질까요? 그림그리는 에이아이(달리i.e.)는 이미 시각예술의 지형을 이미 바꾸고 있다고 합니다. 달리가 기존에 인터넷에 널린 이미지를 원본으로 변주를 만들어내는데 워낙 그 수가 많고 기하급수적으로 늘다 보니 달리가 다른 이미지 생성 에이아이가 만든 이미지를 원본으로 사용해서 또 다른 변주를 만든다고 합니다. 원본을 만드는 인간의 숫자가 줄어드는 셈인데…. 엎친 데 덮친 격으로 값싼 에이아이를 쓰고 그래픽디자이너를 뽑지 않는다면 원본생산자 씨가 마를 거라고 합니다. 원본생산자가 없어진다는 것…. 생명의 가치도 줄어든다는 점에서 생명을 추출한다는 것 같다는 느낌이….


ㅈ) 달리나 stable diffusion과 같은 이미지GPT의 경우도 앞서 텍스트에서 논한 환각현상이 나타나는데 예컨대 인간의 손가락을 여섯 개, 일곱 개로 그려놓는다고 하더군요. 사람들의 손가락 데이터를 확인하기가 쉽지 않은 것이 원인이라고 합니다만. 원본 이미지의 비율이 점점 줄어드는 것도 필연적이라고 생각합니다.

남는 것은 원본이 무엇인가? 그것이 특별한 의미를 갖는 것인가? 원본의 아우라가 사라지는 것이 문제인가? 라는 벤야민적 질문이겠지요.


ㄲ) 네, 원본을 만드는 인간이 사는 세상이니 인간중심의 논리가 정치적으로 의미가 있었으면 합니다. 플러그를 확 뽑아버리고 싶기도 하고요.

에이아이 개발을 잠정 중단하자고 서명운동을 한다던데 효과가 있을까요? 다음 단체가 운동을 하는 단체중 하나인듯 합니다

[futureoflife] Steering transformative technology towards benefitting life and away from extreme large-scale risks.


ㅈ) 자연 수탈만이 아니라 노동 수탈도 문제입니다. 데이터생산자들(우리 모두)의 데이터 활동 전체(우리의 텍스트 사운드 영상 활동 전체)가 챗GPT의 원료로 (마치 자본이 숲의 나무를 벌채 하듯) 수탈됩니다.

감정활동도 수탈되어 우리를 억압하는 무기로 되돌아옵니다. 우리가 짓는 표정들이 몇 가지의 카테고리로 분류되어서 보안 기관들의 대중 단속의 도구로 활용됩니다.


ㅂ) 저는 챗지피티 등의 인공지능 기술 개발에 박차를 가하도록 하는 이 욕망이 무엇일까? 하는 것이 궁금했는데요. (거대 기업의 자본주의적 욕망은 멸치다시 국물처럼 기본으로 깔려있는 것이니 이외의 것이 궁금해요.)

 

ㄲ) 유튜브에서 봤는데…. 사람들은 편하면, 수월하면 과거로 돌아가지 않는다고 합니다. 그래서 스마트폰이 왜 필요하냐는 반론에도 불구하고 현재의 이용자 수가 생겨났다고 주장하더라고요. 욕망은 신체에 있다네요.

 

ㅂ) 일상적으로 너무 많은 정보를 처리해야 하는 스트레스가 인공지능이라는 정보처리 아웃 소싱 도구를 요청하게 된 것 같다는 생각도 듭니다.


ㄲ) 오! 공감됩니다


ㄱ) Open ai CEO가 기본소득 지지자라는 점도 인상적이었습니다.

[AE타임스] OpenAI CEO 샘 올트만, “AI, 10년 내 인간 노동력 대체”...1500만원 기본소득 해당 부 생산

기본소득 논의가 불붙으면 좋겠습니다

[오마이뉴스] "챗GPT와 AI로 인한 일자리 감소문제, '기본소득'이 대안"


ㅈ) 챗GPT가 도구라면 그것은 거대 인지자본들의 축적도구이고 인지적 수단으로 수행되는 지배(통치)장치라고 생각됩니다. 다중들에게 그것이 편의성을 주는 것은 노동시간 절약적이기 때문일 텐데 남는 시간은 다른 노동으로 채워지겠지요. 위에서 "일상적으로 너무 많은 정보를 처리해야 하는 스트레스"라는 구절은 노동 스트레스를 의미할 테니까요.

그렇지만 AI 개발 잠정 중단 같은 전술이 먹혀들지는 의문입니다. 그 위험도가 핵폭탄보다 적은가, 큰가를 논하기는 어렵지만, 명백하게 위험해 보이는 핵폭탄 개발조차 인류는 중단시키지 못하고 있습니다. 핵폭탄과 달리 인공지능은 우리 수중에서 당장의 편의성을 제공하고 있기때문에 그것의 개발을 중단한다는 전술은 대중들로부터 보이콧 당할 가능성이 크다고 생각합니다. 오히려 인공지능은 실제로는 인류의 집단지성이기 때문에 인류 전체에게 유익할 수 있는 방향으로의 관리주체, 통제주체, 수익분배주체 등의 전환이 더 필요한 조치가 아닐까 생각됩니다.

오늘날 인공지능은 대부분 "딥러닝"에 의해 개발되고 있는데 그것이 정말 "효과적"인 방법인가, 유일한 방법인가도 검토될 수 있겠지요. 그것이 갖는 문제점을 고려한다면 더욱 그렇습니다.


ㅂ) 네, 그리고 인공지능은 변호사, 기자 등 인지 노동자들의 노동 스트레스를 절약해 주는 편의 도구일 수 있는데, 사실상 그 도구의 작동을 위해 남반구 노동자들이 '데이터 눈 붙이기 노동'을 하고 있다는 점을 생각하면 그 편의성이 값싼 노동의 착취를 통해 이뤄지는 편의라는 점도 여실히 드러나는 것 같습니다.

'딥러닝'은 지금까지 IT 기업들에 에너지 사용 규제가 없었기 때문에 만들어진 방법이겠지요?

  

ㅈ) 인공지능은 우리가 지금까지 살펴 왔듯이 엄청난 사물들, 사람들에 대한 수탈, 착취, 집중을 통해서 비로소 가능해진 스펙타클한 통제장치("초지성")입니다. 그것이 앞으로 어떤 일을 벌일지, 어떤 방향으로 발전할지 누구도 정확하게 알지 못합니다. 거대인지기업들의 우두머리들도 그러합니다. "나의 인공지능이 무슨 일을 할 수 있는지 나는 모른다"라는 상태랄까요.

데이터 규제도 포함되어야 할 것 같습니다.

아래로부터의 힘의 위에서의 "초지성적" 집약은 1980년 5.18에 민중을 학살하는 것으로 작용했던 계엄군의 "초폭력"과 비교될 수 있다고 생각합니다. 자연, 인간, 사회로부터 나온 금속, 기계, 몸(군인), 정신체들(언론) 등이 그 원천들을 향해 폭력적으로 행사된 경우이기 때문입니다.

 

ㄱ) 이 사람은 플랫폼 민주주의라는 것을 주장한다고 합니다.

‘Platform Democracy’—a very different way to govern powerful tech

<앞으로 나아갈 길: '플랫폼 민주주의'>

그렇다면 이것이 기술 및 거버넌스와 어떤 관련이 있을까요? 플랫폼 민주주의는 깨진 현 상태에 대한 실행 가능한 대안을 제시합니다. 발언과 검열, 알고리즘과 정책에 대한 플랫폼의 결정이 CEO가 아닌 플랫폼이 영향을 미치는 사용자에 의해 결정된다면 어떨까요? 저는 이러한 일반적인 개념을 플랫폼 민주주의라고 부르며, 이는 우리가 추구해야 할 이상입니다.

플랫폼 민주주의: 국민의, 국민에 의한, 국민을 위한 통치 - 단, 물리적 국가가 아닌 디지털 플랫폼의 맥락에서 이루어집니다.

이렇게 말하면 미치거나 적어도 순진하게 들릴 수도 있습니다. 하지만 분명히 말씀드리자면, 저는 (현재) 기술 기업의 리더십을 없애고 "플랫폼 민주주의"로 대체하자는 비현실적인 주장을 지지하지 않습니다. 저는 이미 전 세계적으로 검증된 민주적 절차를 통해 이러한 이상에 훨씬 더 가까워질 수 있다고 믿습니다. 

집단적 결정에 대한 권력을 그 결정이 영향을 미치는 사람들에게 점진적으로 이양하는 것입니다. 권력의 이양은 점진적이면서 동시에 혁명적일 수 있습니다.

플랫폼 민주주의의 측면을 구현하기 위한 한 가지 구체적인 접근 방식은 플랫폼 어셈블리이며, 이는 앞서 설명한 유럽연합의 프로세스와 유사합니다.

-DeepL 번역기-


ㅈ) 참고할 수 있는 주장이라고 생각합니다. 그런데 플랫폼이 디지털 중심으로 사유되거나 그것으로 환원되지 않도록 유의하는 것이 필요하다고 생각됩니다. 비디지털 플랫폼들도 무수히 많기 때문입니다.


ㄱ) 국내 인공지능법안 제정 시도에 대한 시민단체 <정보인권연구소>의 입장입니다. 지난 2월에 “세계최초로” 한국에서 ‘인공지능 산업 육성 및 신뢰기반 조성 등에 관한 법률(이하 인공지능법안)’이 과학기술정보통신방송통신위원회(이하 과방위) 법안심사소위를 통과했다고 합니다.


ㅈ) "인공지능이 인권과 안전에 미칠 위험성을 등한시하고, 인공지능 산업에 대한 규제를 무분별하게 완화하는 내용으로 이루어져 있다는 인권시민단체의 우려는 전혀 해소될 수 없습니다."라는 판단에는 대체로 동의하고 규제적 접근이 필요하다는 견해에 동의합니다. 그런데 더 중요한 것은 인공지능이 실제로는 기계가 만든 지성이 아니라 자연과 인간 전체의 지능(즉 다중지성) 이며 그것이 현대 자본주의의 착취구조 속에서 이윤동기와 지배동기에 의해 이끌려 가고 있다는 사실에 대한 비판이라고 생각합니다.


ㄲ) 네 동의합니다. 여론의 프레임이 누가 빼앗기는가가 아니라 누가 혜택을 얻는가, 그것은 정단한 논리에 근거하는가 등으로 바뀌어야 할 것입니다.


ㄱ) Ai, 공통장, 자본주의를 다룬 오픈액세스 논문입니다.

Dismantling AI capitalism: the commons as an alternative to the power concentration of Big Tech


🎧💻🎤
진실연대자가 추천하는 집담회

실재론적 마술
: 객체, 존재론, 인과성


사회자: 서현식
강연자: 티머시 모턴


6월 10일 (토) 오전 11시
📌
TAPic 더 많은 사람이 볼 수 있도록
SNS에 공유해 주세요!
🙋‍♀️ 뉴스레터를 읽다가 오타나 오류가 있는 내용을 발견하면 진실연대자들 메일로 제보해 주세요. 다음 호 뉴스레터에 '정정 알림' 하도록 하겠습니다. 🙆
재밌게 읽으셨나요? 
내용이 유익하셨다면 
TAPic을 구독하세요.
한 달에 두 번,
나의 메일함으로 
받아보실 수 있습니다. 
💌
*매월 2,4주 일요일에 발송됩니다.
(상황에 따라 조정될 수 있습니다.)
진실연대자들(TAP)
truth.commoners@gmail.com
수신거부 Unsubscribe
stibee

이 메일은 스티비로 만들었습니다