[언론보도] 한보형 교수, [포럼]AI발 가짜뉴스 억제할 기술과 제도(문화일보,2023.05.25)
한보형 서울대 전기·정보공학부 교수
최근 인공지능(AI)을 이용해 조작된 미국 펜타곤 주변 폭발 사진이 소셜 미디어를 통해 의도적으로 전파되면서 미국 주식시장이 출렁이는 사태가 발생했다. 과거에는 가짜 뉴스가 수동으로 만들어지고 텍스트 형태로만 공유됐으나, 최근에는 AI 기반 생성 모델의 발달로 가짜 영상과 함께 자동으로 만들어지니 빠르고 파급력 있게 전파된다.
생성 모델은 이미지·텍스트·음성 등과 같은 데이터를 그럴듯하게 만들어내는 AI 기술이지만, 생성된 데이터가 사실에 입각한 것이라는 보장이 없다.생성 모델은 데이터의 확률 분포를 추정하는 것에 불과하므로 학습 데이터 개수가 증가하고 계산 자원이 충분히 확보되기만 하면 성능이 좋아질 개연성이 매우 크다. 따라서 생성 모델로 인한 위기는 먼 미래의 이야기가 아닐 뿐만 아니라 앞으로 더 커질 수 있음을 유의해야 한다.
생성 모델이 만든 가짜 뉴스 문제를 해결하기 위해서는 기술적인 접근과 동시에 다양한 사회적·정치적 대책이 필요하다. 우선, 기술적인 관점에서 이 문제를 해결하기 위해서는 다음과 같은 해법들이 고려될 수 있다.
첫째, 가짜 뉴스를 구별할 수 있는 탐지 또는 필터링 기술을 개발해야 한다. 하지만 이러한 기술은 진짜와 가짜 데이터에 대한 정답을 필요로 하는 지도 학습에 속하기 때문에 기술 개발이 상대적으로 더딜 가능성이 크고, 해킹과 유사하게 일단 가짜 뉴스에 의해 피해를 본 뒤에야 그 내용에 대한 학습이 이뤄지므로 선제적인 대책이 되기 어렵다.
둘째, 뉴스의 진위 판별은 물론 소스를 찾아주고 내용에 대한 설명을 추가해 주는 설명 가능한 AI 기술 개발이 병행돼야 한다. 이를 위해 지식 기반을 이용해 그 내용에 대한 근거를 교차 확인해 주는 기술이 필요하다. 하지만 별도의 대규모 데이터세트 없이 개발된 설명 가능한 AI 기술은 제한적인 범위 내에서만 그 기능을 제공할 가능성이 크다.
셋째, 생성 모델이 데이터를 만들 때 또는 사람이 뉴스를 제공하려 할 때 디지털 서명을 하는 등과 같은 추가적인 대책이 필요할 수 있다. 이는 국내 금융 시스템에서 공인 인증서를 사용하는 것과 유사하다. 그런데 이런 방법은 결국 데이터의 진위 판별 책임을 개인에게 떠넘기는 듯한 인상을 줄 수 있다.
앞서 예를 든 바와 같이 가짜 뉴스는 정치·경제·사회적으로 많은 부정적 영향을 미칠 수 있기에 사회적 또는 제도적 보완책도 필요하다. 예를 들면, 기술 회사들은 알고리즘 투명성과 정보 출처 제공 기술 확보를 위한 노력을 기울여야 하고, 뉴스 제공업체는 소비자가 신뢰할 수 있는 소스와 정보를 구분할 수 있는 장치를 마련해야 한다. 정부와 국제기구는 가짜 뉴스에 대한 법적인 규제를 도입해 이를 방지하고 처벌할 수 있는 환경을 조성해야 한다. 한편, 개인들은 가짜 뉴스를 식별하고 대응하는 능력을 교육을 통해 배양할 필요가 있다. 또한, 가짜로 판별된 데이터를 투명하게 공개해 향후 가짜 뉴스가 확대 재생산되는 것을 방지해야 한다.
이와 같은 기술적·사회적·제도적 해법들은 가짜 뉴스 문제를 완전히 해결해주지는 않지만, 이를 종합적으로 적용하고 개선해 나가면서, 가짜 뉴스의 확산을 억제하고 사회적 혼란을 최소화하도록 끊임없이 노력해야 할 것이다.
>>기사 원문 보기
최근 인공지능(AI)을 이용해 조작된 미국 펜타곤 주변 폭발 사진이 소셜 미디어를 통해 의도적으로 전파되면서 미국 주식시장이 출렁이는 사태가 발생했다. 과거에는 가짜 뉴스가 수동으로 만들어지고 텍스트 형태로만 공유됐으나, 최근에는 AI 기반 생성 모델의 발달로 가짜 영상과 함께 자동으로 만들어지니 빠르고 파급력 있게 전파된다.
생성 모델은 이미지·텍스트·음성 등과 같은 데이터를 그럴듯하게 만들어내는 AI 기술이지만, 생성된 데이터가 사실에 입각한 것이라는 보장이 없다.생성 모델은 데이터의 확률 분포를 추정하는 것에 불과하므로 학습 데이터 개수가 증가하고 계산 자원이 충분히 확보되기만 하면 성능이 좋아질 개연성이 매우 크다. 따라서 생성 모델로 인한 위기는 먼 미래의 이야기가 아닐 뿐만 아니라 앞으로 더 커질 수 있음을 유의해야 한다.
생성 모델이 만든 가짜 뉴스 문제를 해결하기 위해서는 기술적인 접근과 동시에 다양한 사회적·정치적 대책이 필요하다. 우선, 기술적인 관점에서 이 문제를 해결하기 위해서는 다음과 같은 해법들이 고려될 수 있다.
첫째, 가짜 뉴스를 구별할 수 있는 탐지 또는 필터링 기술을 개발해야 한다. 하지만 이러한 기술은 진짜와 가짜 데이터에 대한 정답을 필요로 하는 지도 학습에 속하기 때문에 기술 개발이 상대적으로 더딜 가능성이 크고, 해킹과 유사하게 일단 가짜 뉴스에 의해 피해를 본 뒤에야 그 내용에 대한 학습이 이뤄지므로 선제적인 대책이 되기 어렵다.
둘째, 뉴스의 진위 판별은 물론 소스를 찾아주고 내용에 대한 설명을 추가해 주는 설명 가능한 AI 기술 개발이 병행돼야 한다. 이를 위해 지식 기반을 이용해 그 내용에 대한 근거를 교차 확인해 주는 기술이 필요하다. 하지만 별도의 대규모 데이터세트 없이 개발된 설명 가능한 AI 기술은 제한적인 범위 내에서만 그 기능을 제공할 가능성이 크다.
셋째, 생성 모델이 데이터를 만들 때 또는 사람이 뉴스를 제공하려 할 때 디지털 서명을 하는 등과 같은 추가적인 대책이 필요할 수 있다. 이는 국내 금융 시스템에서 공인 인증서를 사용하는 것과 유사하다. 그런데 이런 방법은 결국 데이터의 진위 판별 책임을 개인에게 떠넘기는 듯한 인상을 줄 수 있다.
앞서 예를 든 바와 같이 가짜 뉴스는 정치·경제·사회적으로 많은 부정적 영향을 미칠 수 있기에 사회적 또는 제도적 보완책도 필요하다. 예를 들면, 기술 회사들은 알고리즘 투명성과 정보 출처 제공 기술 확보를 위한 노력을 기울여야 하고, 뉴스 제공업체는 소비자가 신뢰할 수 있는 소스와 정보를 구분할 수 있는 장치를 마련해야 한다. 정부와 국제기구는 가짜 뉴스에 대한 법적인 규제를 도입해 이를 방지하고 처벌할 수 있는 환경을 조성해야 한다. 한편, 개인들은 가짜 뉴스를 식별하고 대응하는 능력을 교육을 통해 배양할 필요가 있다. 또한, 가짜로 판별된 데이터를 투명하게 공개해 향후 가짜 뉴스가 확대 재생산되는 것을 방지해야 한다.
이와 같은 기술적·사회적·제도적 해법들은 가짜 뉴스 문제를 완전히 해결해주지는 않지만, 이를 종합적으로 적용하고 개선해 나가면서, 가짜 뉴스의 확산을 억제하고 사회적 혼란을 최소화하도록 끊임없이 노력해야 할 것이다.
>>기사 원문 보기