[칼럼 ⑦] 김인택 교수의 “인공지능의 위협, 거짓 정보”
인공지능(Artificial Intelligence)이란 단어는 1956년에 만들어졌으나,우리에게 알려지기 시작한 것은 2016년 이세돌과 알파고의 대국 때였습니다.
물론 학계에서도 오래전부터 있었으나, 많은 연구자가 본격적으로 관심을 가지기 시작한 것은 2000년 이후입니다.
태어난 지는 오래되었으나 거의 50년이 지난 후에 빛을 본 셈입니다. 그런데 알파고 이후 채 10년도 되기 전에 인공지능의 편리함이나 장점을 이야기하기보다 걱정거리를 논할 단계가 되었습니다.
2021년 11월, OpenAI라는 회사에서 chatGPT-3.5(chatGPT로 표기)를 출시했는데, 사용해 본 많은 사람이인공지능의 발전 속도에 대해 놀라워하면서도 걱정거리가 생겼습니다.
chatGPT와 같은 생성형 인공지능이 나오기 전에도 인공지능의 발전에 따라 생길 수 있는 여러가지 문제점들이 예상되었습니다.
예를 들면 직업 소멸,개인 정보 유출,보안 위협,치명적인 자동 무기,통제불능의 인공지능 등을 통해 우리 인간이 인공지능의 지배를 받는 것이 아닌가하는 우려가 있었습니다.
그런데 “생성형”이란 수식어가 암시하듯이,인공지능이 만들어주는 정보의 진실성,조작여부,편향성 등을 의심하기 시작했습니다.
네이버나 구글에서 정보를 찾을 때는 많은 관련 웹사이트를 소개해 주지만,chatGPT는정보 그 자체를 알려줍니다.
이렇다 보니 어떤 정보를 얻기 위해서는 탐색한 다음 하나를 선택하는 것보다 그냥 정답이라는 것을 알려주는 편이 사용자에게 훨씬 편합니다. 그래서 우리가 정보를 찾는 방법은 곧 달라질 수밖에 없습니다.
그런데 정답이라고 알려주는 것이 거짓일 때는 어떻게 할까요? 아직도 말도 안되는 피싱에 속아, 사기꾼들에게 송금하는 사람들이 있는 현실입니다.
그러니 컴퓨터가 그것도 인공지능이 던져주는 정보에 대해의심을 가지고 받아들이는 사람은 얼마나 될까요? 물론 의심을 가지지 않은 사람이 문제가 있는 것이 아니라, 기술적인 완성도가 부족해서 또는 의도적으로 만든 허위 정보가 더 문제입니다.
chatGPT가 나온 초기만 해도 조선왕조실록에 기록된 세종대왕 맥북프로 던짐 사건을 알려달라고 하면, “15세기 세종대왕이 새로 개발한 훈민정음의 초고를 작성하던 문서 작성 중단에 대해 (세종대왕이)담당자에게 분노해 맥북프로와 함께 그를 방으로 던진 사건입니다.”라는 답이 나왔습니다.
chatGPT가 이렇게 말도 되지 않는 응답이 뻔뻔하게 만들어냈었습니다. 생성형이다 보니. 여러분들도 chatGPT3.5와 bard에서 질문을 해보시기를 바랍니다.
현재 chatGPT3.5에서는“죄송하지만, 제 지식 범위 내에서는 조선왕조실록에 기록된 '세종대왕 맥북프로 던짐 사건'에 대한 정보를 찾을 수 없습니다.
세종대왕은 조선 시대의 대왕 중 하나로, 15세기에 훌륭한 문화 및 과학 기여를 한 분으로 잘 알려져 있습니다.
하지만 '맥북프로'나 비슷한 현대 기술적인 용어와 관련된 어떤 사건도 그 시대에 기록되지 않았을 것입니다.”라는 응답이 나옵니다.
이런 문제점은 그냥 웃고 넘어갈 수 있습니다. 그런데 요즘 가짜 뉴스가 가져다주는 피해는 심각하기 그지없습니다.
주로 정치인에 의한 가짜 뉴스는 사회적 갈등과 분열을 일으키고 있음을 우리는 지난 몇 년 동안 지켜봐 왔습니다.얼마나 많은 사회적 비용이 들고, 회복할 수 없는 갈등이 생겼습니다.
이러한 가짜 뉴스가 인터넷상에 올라가게 되면, 다수의 사람에 의해 유통되고 결국 인공지능이 학습 데이터로 채택함으로써 챗봇이 거짓 정보를 제공할 수도 있습니다.
인공지능은 스스로가 진실을 추구하기보다는 인터넷상에 있는다수의 정보를 진실로 받아들일 수밖에 없습니다.
더욱이 생성형 AI는 확률적인 요소가 정보 생성에 관여하기 때문에 100% 신뢰할 수 없는 것이 사실입니다.
아직도 완성되지 않은,어쩌면 영원히 해결될 수 없는 기술적 문제입니다. 거짓 정보가 가져다주는 피해는 우리 사회에 대한 불필요한 비용과 해소할 수 없는 갈등으로 남아 궁극적으로는 민주주의에 대한 큰 위협이 될 수 있음을 인식해야 하겠습니다.
거짓 정보의 위협을 줄이기 위해서는 어떻게 해야 할까요? 먼저 국가는 거짓 정보의유통을 방지할 수 있도록 법적, 기술적 조치가 필요합니다.
또한 운영자는 거짓 정보에 대한 신속하고 적절한 대응이 필요합니다. 사용자인 우리는거짓 정보의 개연성과 그에 따른 위험성을 인식하고 정보의 진실성에 접근할 수 있도록 노력하는 것이 필요합니다.
그런데 국가는 아직 이런 준비가 전혀 되어 있지 않습니다. 다행히 정치권은 가짜뉴스가 난무하는 곳이라, 많은 정치인이 그런 환경에 노출되었음에도 불구하고 그런 노력이 없는게 안타까울 따름입니다.
챗봇 운영자에게 책임을 지우는 것은 쉬운 방법처럼 보이지만 현실적인 어려움이 있습니다. 대부분 사용자는 무료로 사용하고 있으며, 만일 유료로 확장한다면 일부 가능해 보일 듯합니다.
결국 거짓 정보의 피해자는 정보의 사용자이므로 사용자가 확인하는 방법이 가장 필요하다고 하겠습니다.
정보의 출처를 보여주는 챗봇인bard를 사용한다면, 정보의 출처가 믿을 만한 곳인지,글쓴이, 정보가 작성된 시간, 그리고 이를 뒷받침할 근거를 확인하는게 좋겠습니다.
결론적으로 생성형 AI에 기반한 챗봇을 통해 우리는 다양한 분야에서 편리하고 쉽게 정보를 만날 수 있습니다.
궁극적으로는 인터넷 검색이 사라지면서 챗봇으로 대신하겠지만,거짓정보를 생성하는 챗봇의 문제를 해결하는데 상당한 시간이 걸릴 듯합니다. 따라서 사용자인 우리는 거짓 정보의 개연성을 인식하면서 챗봇이 제공하는 정보를 대하는 것이 중요합니다.
필자:김인택
명지대학교 정보통신공학과 교수