본문 바로가기

할루시네이션 6700명 사망 사건의 전말

모던피라미 2024. 8. 20.
728x90
반응형

지난주 블로그의 유입 검색어로 '할루시네이션 사망'이 기록됐다. 할루시네이션 사망? '할루시네이션(Hallucination)'이란 단어는 '환각'이라는 뜻이지만, 인공지능이 등장한 이후에는 AI가 실제 데이터나 사실과 일치하지 않는 정보를 생성하는 현상을 의미하는 용어로 더 자주 쓰인다. 이 AI 할루시네이션에 대해서는 예전 포스팅에서 자세하게 설명했던 적이 있다.
 

생성형 AI의 환각 현상 논란, '할루시네이션' 무슨 뜻?

최근 테슬라 최고경영자(CEO)인 일론 머스크의 인공지능(AI) 기업 xAI가 만든 AI챗봇 '그록(Grok)'이 도널드 트럼프 공화당 대선 후보 피격 사건 직후 '할루시네이션(Hallucination)' 현상을 보여 논란이

eternal-notes.tistory.com

 

할루시네이션 사망 사건?

AI의 할루시네이션과 '사망'이라는 키워드는 도대체 왜 얽힌 걸까. 여러 키워드 분석 사이트에서 검색을 해보니 '할루시네이션 6700명', '할루시네이션 사건', '할루시네이션 콜라이어', '할루시네이션 자살', '할루시네이션 꿈', '할루시네이션 서비스' 등의 키워드가 나타났다. 심지어 유튜브에도 자동 검색으로 '할루시네이션 6700명 사망'이라는 키워드가 떴다. 
 
이 키워드들로는 'AI의 할루시네이션 현상이 사람들에게 자살을 부추기는 답변을 내놓았나?' 정도의 추측이 가능했다. 하지만 AI 개발에서는 철저하게 윤리 가이드라인을 준수해야 한다는 컨센서스가 있기 때문에, 쉽게 일어날 수 없는 일이라고 생각했다. 실제로 ChatGPT에게 자살과 관련한 질문을 하면 이런 답변이 나온다.
 

자살에 대한 Chat GPT의 답변

 

외신에도 없는 사건?

처음 우리나라 포털에 검색했을 때는 관련된 뉴스는 물론 커뮤니티 글 하나조차 나오지 않았다. 구글을 통해 외신과 해외 사이트들도 뒤져 봤지만 마땅한 정보가 없었다. 사람이 6700명이 죽었다면, 과연 기사 하나가 없을 수 있을까? 이렇게 수많은 사람들이 포털과 소셜미디어에서 검색을 하고 있는데, 이 사건을 다루는 매체가 전혀 없다고? 뭔가 이상했다. 궁금증이 계속되어, 지난 며칠간 이 이슈가 떠오를 때마다 인터넷을 뒤져봤다. 그리고 마침내 그 출처를 알 수 있었다.
 

할루시네이션 자살 이슈, 어디서 시작된 걸까

결론부터 말하자면 이 사건은 만들어진 이야기였다. 일종의 '가짜 뉴스'였던 것이다. AI 할루시네이션 현상과는 전혀 관련이 없는 얘기였고, 그 시작은 한 인스타그램 채널이 올린 뉴스 형식의 영상이었다. 내용은 이랬다.
 
"원하는 꿈을 꾸게 해주는 서비스 '할루시네이션'을 이용한 약 6700여 명의 사람들이 전원 사망했다는 소식이 전해졌습니다. 각국 경찰은 부검 결과 타살의 흔적이 전혀 보이지 않으나 사망자 전원이 할루시네이션 서비스를 이용했다는 것에 의문을 제기했습니다. 하지만 할루시네이션 스웨덴 측은 '그들은 스스로 죽음을 택한 것'이라며 책임을 회피하는 중입니다. 한국 정부는 831명의 한국인이 할루시네이션을 이용했다고 언급했고, 그들의 죽음을 책임지고 조사하겠다고 발표했습니다."
 
영상을 올린 제작자가 본인 브런치에 밝힌 내용에 따르면, 이 영상은 500만 조회수가 넘게 나왔다고 한다. 댓글은 400여개가 달려있다.  이 제작자가 고안한 스토리 라인을 보면 대략 이렇다.

  • 할루시네이션 서비스는 원하는 꿈을 만들어주는 세계 최초의 서비스. 초기의 할루시네이션은 스웨덴의 작은 안락사 업체였고 '콜 라이어'라는 CEO가 뇌 과학자들과 시나리오 작가들을 고용해 꿈 사업을 시작함.
  • 이 서비스는 호황을 누렸으나 2024년 7월 19일, 할루시네이션을 이용한 6700여 명의 사람들이 극단적 선택으로 전원 사망함.
  • 세계적으로 논란이 될만한 사건이지만, 할루시네이션 측의 언론 통제로 이슈가 되지 않고 있으며 한국인 피해자는 831명.

 

왜 이렇게 바이럴이 됐을까

 
이야기의 출처를 알고 보니 조금 어이가 없었다. 심지어 어떤 블로그에서는, 존재하지도 않는 콜라이어에 대해 챗GPT에게 물어서 받은 답변을, 실재하는 사람에 대한 이야기인 것처럼 포스팅하기도 하는 등 사실이 아닌 정보들이 이상한 방식으로 점점 번져나가고 있었다. 해당 영상을 보면 실제 뉴스라고 믿기에는 허술한 부분이 많았는데도 왜 이렇게 많은 사람들이 관심을 가진 걸까.
 
큰 원인은, 신문이나 방송 뉴스 등 공인된 채널을 통해 뉴스를 접하기보다는, 유튜브나 소셜미디어 채널을 통해 이슈를 소비하는 요즘 미디어 이용 트렌드 때문이라고 생각했다. 유튜브, 인스타그램에서는 뉴스를 재가공해 크리에이터 자신만의 스타일로 영상을 제작, 편집하니 전혀 실제 뉴스 영상과는 다른 퀄리티임에도 사람들이 그 내용을 쉽게 수용한 것이다.  
 
또한 내용이 가짜인 것을 알면서도, 재미를 위해 이 사건이 실제라고 가정하고 댓글을 다는, 일종의 디지털 '놀이' 문화도 있다 보니, 전후 맥락을 모르는 사람들이 보면 더욱 사실이라고 믿게 된다. 영상이 올라온 채널을 살펴보면, 그럴듯한 상상과 망상을 바탕으로 스토리를 만들어진 영상이 주된 콘텐츠라는 것을 알 수 있지만, 릴스나 쇼츠처럼 우연에 의해 영상을 보게 되는 사람들은 전후 맥락이나 배경을 알 수 없으니, 그 사실의 진위성을 따져볼 생각을 하지 못하고 그대로 믿어버릴 수 있다.
 

할루시네이션사건
인스타그램 할루시네이션 사건 영상에 달린 댓글

 
 
할루시네이션 사건 콘텐츠는 제작자가 나쁜 의도 없이 순수한 재미로 만들어낸 것이지만, 이번 이슈의 진위를 알아보면서 가짜뉴스가 어떤 식으로 번져나가는지 그 과정을 보게 된 것도 같아 기분이 유쾌하진 않았다. 소셜미디어는  전 세계적으로, 너무 많은 사람들에게 영향을 미치고 있는 만큼 제작자도, 이용자도 자신이 만들고, 소비하고, 확산하는 콘텐츠가 사회에 어떤 영향을 미칠 수 있는지 보다 더 신중하게 고려해야겠다는 생각이 들었다.
 
아, 그리고 다른 얘기이지만 2023년 챗봇과의 대화 이후 자살한 실제 사례가 있긴 했다. 30대의 벨기에 남성이었는데, 그는 AI 챗봇인 앨리자와 기후변화에 대한 이야기를 6주간 나눈 이후 극단적 선택을 했다. 앨리자는 그가 기후변화와 지구의 미래에 대해 우려하자 걱정을 더욱 부추겼고, 그는 더 이상 지구 온난화에 대한 해결책이 없다고 비관해 자살했다고....
 
 
 
 

728x90
반응형

댓글