[언론보도] 한보형 교수, “가짜뉴스 학습한 AI가 ‘더 그럴듯한 가짜뉴스’ 만드는 악순환”(문화일보,2023.05.23)
■ 한보형 서울대 교수
“챗GPT는 정보 진위 관심없어
선거서도 가짜 여론조사 우려”
한보형 전기·정보공학부 교수는 23일 문화일보와의 전화 인터뷰에서 “챗GPT·구글바드 등 생성형 AI 모델은 진위에 상관없이 그럴듯한 문장을 만들어내는 모델”이라며 이같이 말했다. 한 교수는 미국 메릴랜드주립대에서 컴퓨터과학 박사학위를 받았고, 구글과 AI 공동연구를 진행하는 등 머신러닝·딥러닝 분야 국내 최고 전문가로 손꼽힌다.
그는 가짜뉴스를 학습한 AI가 고도화된 가짜뉴스를 끝없이 생산해내는 악순환을 우려했다. 한 교수는 “지금까지 AI가 신뢰성 있는 데이터를 주로 학습했다면, 가짜 콘텐츠가 많이 유통된 시점에는 이런 가짜뉴스를 학습한 AI 모델이 또 다른 사실일 수 있는 콘텐츠를 만들어내는 상황이 올 수 있다”고 했다. 그는 이어 “어느 쪽으로 수렴할지 확신할 수 없지만 특정 정보가 가짜인지, 진짜인지 분별이 어려운 지경이 될 수 있다”고 덧붙였다. 생성형 AI에 의해 가짜뉴스가 대규모로 생산돼 ‘팩트’가 아닌 ‘가짜뉴스’가 주된 여론이 되는 상황을 우려한 것으로 풀이된다.
한 교수는 당장 내년 4·10 총선에서 특정 세력이 생성형 AI를 활용해 가짜뉴스를 대규모로 퍼뜨릴 수 있다고 했다. 그는 “AI를 이용해 누구나 간편하게 가짜 여론조사 등 가짜뉴스를 만들어낼 수 있는 게 사실”이라며 “다양한 기관에서 필터링이 되도록 노력해야 한다”고 했다. 한 교수는 또 정치적 이익, 자본 이익을 바라고 다양한 방식으로 AI를 활용할 수 있다고 경고했다. 그는 “북한이나 남미 마약 카르텔 등이 자기 이익에 부합하는 게 있다고 한다면 여론 조작 등에 뛰어들 것”이라고 전망했다.
한 교수는 생성형 AI 모델을 만든 오픈AI나 구글 등도 악의적으로 가짜 정보 생성하는 것을 방지하거나 차단하는 방법을 연구하고 있지만 사실상 빠른 시일 내에 이를 달성하기 어려울 것으로 예상하고 있다. 이 같은 맥락에서 챗GPT의 윤리적 답변을 무력화하는 ‘탈옥’ 등에 대해서도 “개발사들이 특별한 대응을 하고 있지 않다”라며 “이들 회사가 대응에 나선다고 해도 모든 부적절한 시도에 대해 실시간 대응은 불가능해 한계가 있을 것”이라고 했다. 그는 최근 미국 등에서 AI 규제 논의가 본격화하는 것과 관련해 “선한 목적도 있기 때문에 AI 이용 자체를 막기는 어려울 것”이라며 “결국 처벌 강화 등 사후 대책을 마련하는 방향으로 갈 가능성이 커 보인다”고 말했다.
>>기사 원문 보기
“챗GPT는 정보 진위 관심없어
선거서도 가짜 여론조사 우려”
“생성형 인공지능(AI)이 만든 가짜뉴스를 또 다른 생성형 AI가 재학습해 더 그럴듯한 가짜뉴스를 쏟아내는 상황이 올 수 있습니다.”
한보형 전기·정보공학부 교수는 23일 문화일보와의 전화 인터뷰에서 “챗GPT·구글바드 등 생성형 AI 모델은 진위에 상관없이 그럴듯한 문장을 만들어내는 모델”이라며 이같이 말했다. 한 교수는 미국 메릴랜드주립대에서 컴퓨터과학 박사학위를 받았고, 구글과 AI 공동연구를 진행하는 등 머신러닝·딥러닝 분야 국내 최고 전문가로 손꼽힌다.
그는 가짜뉴스를 학습한 AI가 고도화된 가짜뉴스를 끝없이 생산해내는 악순환을 우려했다. 한 교수는 “지금까지 AI가 신뢰성 있는 데이터를 주로 학습했다면, 가짜 콘텐츠가 많이 유통된 시점에는 이런 가짜뉴스를 학습한 AI 모델이 또 다른 사실일 수 있는 콘텐츠를 만들어내는 상황이 올 수 있다”고 했다. 그는 이어 “어느 쪽으로 수렴할지 확신할 수 없지만 특정 정보가 가짜인지, 진짜인지 분별이 어려운 지경이 될 수 있다”고 덧붙였다. 생성형 AI에 의해 가짜뉴스가 대규모로 생산돼 ‘팩트’가 아닌 ‘가짜뉴스’가 주된 여론이 되는 상황을 우려한 것으로 풀이된다.
한 교수는 당장 내년 4·10 총선에서 특정 세력이 생성형 AI를 활용해 가짜뉴스를 대규모로 퍼뜨릴 수 있다고 했다. 그는 “AI를 이용해 누구나 간편하게 가짜 여론조사 등 가짜뉴스를 만들어낼 수 있는 게 사실”이라며 “다양한 기관에서 필터링이 되도록 노력해야 한다”고 했다. 한 교수는 또 정치적 이익, 자본 이익을 바라고 다양한 방식으로 AI를 활용할 수 있다고 경고했다. 그는 “북한이나 남미 마약 카르텔 등이 자기 이익에 부합하는 게 있다고 한다면 여론 조작 등에 뛰어들 것”이라고 전망했다.
한 교수는 생성형 AI 모델을 만든 오픈AI나 구글 등도 악의적으로 가짜 정보 생성하는 것을 방지하거나 차단하는 방법을 연구하고 있지만 사실상 빠른 시일 내에 이를 달성하기 어려울 것으로 예상하고 있다. 이 같은 맥락에서 챗GPT의 윤리적 답변을 무력화하는 ‘탈옥’ 등에 대해서도 “개발사들이 특별한 대응을 하고 있지 않다”라며 “이들 회사가 대응에 나선다고 해도 모든 부적절한 시도에 대해 실시간 대응은 불가능해 한계가 있을 것”이라고 했다. 그는 최근 미국 등에서 AI 규제 논의가 본격화하는 것과 관련해 “선한 목적도 있기 때문에 AI 이용 자체를 막기는 어려울 것”이라며 “결국 처벌 강화 등 사후 대책을 마련하는 방향으로 갈 가능성이 커 보인다”고 말했다.
>>기사 원문 보기