오픈AI, 검증도구 개발
대선 조작 이미지 대응

인공지능(AI) 개발 스타트업 오픈AI가 특정 이미지가 자사의 AI에 의해 만들어졌는지 여부를 판별하는 도구를 공개했다.
월스트리트저널은 8일 오픈AI가 전날 공개한 검증 도구는 오픈AI의 이미지 생성 AI인 '달리 3'(DALLl-E 3)가 만들어낸 이미지를 최대 98%의 정확도로 찾아낼 수 있다고 보도했다. 다만 해당 이미지가 캡처되거나 일부 잘린 상태라면 정확도는 떨어질 수 있으며, 전체적인 색감이 추후 수정됐을 경우 정확도는 더 크게 떨어진다고 오픈AI는 설명했다.

오픈AI의 새로운 도구는 최근 미국 대통령 선거를 앞두고 AI를 이용한 허위·조작 이미지가 대거 유포될 수 있다는 우려에 대응하기 위한 것이다. 오픈AI를 비롯한 여러 기업들은 최근 잇달아 이미지 생성 AI를 선보였고, 미국 정치권에선 유권자들이 이런 AI가 만든 거짓 사진 등에 속아 잘못된 판단을 내릴 수 있다는 우려가 커져왔다.

오픈AI의 이번 검증 도구는 AI 생성 이미지임을 구별하기 위해 삽입되는 워터마크에 기대지 않고 자체 기술을 통해 이미지의 AI 생성 여부를 가린다.
한편 오픈AI는 이날 온라인 이미지에 대한 검증 체계를 개발하기 위해 마이크로소프트(MS)와 어도비가 공동 설립한 연구 그룹에 합류할 계획이며, MS와 함께 AI 교육을 지원하기 위한 200만 달러 규모의 기금도 출범한다고 밝혔다.