중국과 러시아가 대중과 정치 환경을 조작하기 위한 캠페인의 일환으로 오픈AI 기술을 사용했다고 목요일에 공개했다.
오픈AI는 의견을 왜곡하기 위해 생성 AI를 사용한 ‘은밀한 영향력 행사’와 관련된 계정을 해지했다고 밝혔다.
이 중 두 건은 러시아에서 시작되었다고 오픈AI는 밝혔다. 배드 그래머는 미국과 우크라이나를 포함한 동유럽의 텔레그램에 게시된 정치 논평을 작성하는 데 이 회사의 모델을 사용했다. 한편, 도플갱어는 X와 9GAG에 대한 다국어 논평을 작성하고 관련 기사를 번역했으며, 뉴스 기사를 페이스북 게시물로 전환했다.
중국 네트워크인 Spamouflage는 소셜 네트워크 활동을 조사하고 X, Medium, Blogspot과 같은 플랫폼에 게시물을 생성하는 데 오픈AI 모델을 사용했으며, 데이터와 웹사이트를 관리하는 데도 이 기술을 사용했다.
이란에 본사를 둔 국제 가상 미디어 연합은 AI를 사용하여 관련 웹사이트의 기사를 생성하고 번역하는 등 다른 영향력 있는 캠페인도 있었다. 이스라엘의 스토익(Stoic)도 오픈AI 플랫폼을 사용하여 기사와 댓글을 생산한 것으로 알려져 있다.
이 캠페인에서 정치가 중요한 역할을 했다. 오픈AI는 생성된 콘텐츠가 러시아의 우크라이나 침공, 중국 정부에 대한 비판, 가자지구 전쟁, 유럽과 미국의 정치 등 핫이슈를 다루고 있다고 밝혔다.
오픈AI에 따르면 인플루언서 캠페인이 대중의 담론에 ‘의미 있는’ 영향을 미치지는 않은 것으로 보인다. 일부 캠페인은 두 개 이상의 플랫폼에서 활동했지만, 실제 커뮤니티에 침투하지는 않은 것으로 알려졌다.
그럼에도 불구하고 이번 조사 결과는 올해 주요 우려 사항 중 하나인 중국, 러시아 및 기타 국가들이 오픈AI 등의 생성 AI를 사용하여 선거를 왜곡할 수 있다는 점을 강조한다(선거 왜곡). 이들은 허위 진술을 퍼뜨리거나 후보자를 잘못 표현하는 가짜 사진을 만들 수 있다. 미국에서는 의회와 연방통신위원회(FCC)가 AI 사용 내역을 공개할 것을 촉구했다.
구글, 메타, 마이크로소프트와 같은 주요 기술 기업들은 이러한 조작자를 잡기 위한 노력을 강화했다. 오픈AI도 어뷰징에 대해 “선제적으로” 개입했다고 주장했다. 그러나 AI가 생성한 자료가 어떻게 대중에게 도달하는지 항상 알 수 없기 때문에 모든 캠페인을 탐지할 수는 없다는 점을 인정했다.