구글·오픈AI 등 빅테크, 모델 내 유해 이미지 차단 나서

생성형 AI 모댈 내 숨은 '아동 성적학대 자료' 확산 방지·제거 본격화

컴퓨팅입력 :2024/04/24 15:28

글로벌 인공지능(AI) 기업이 AI 모델 내 유해한 이미지 데이터셋을 최소화하기 위해 나섰다. 특히 아동 성적학대 자료(CSAM)를 포함한 데이터셋이 모델 학습에 이용되지 않도록 할 방침이다. 

24일 더 버지 등 IT 외신은 구글을 비롯한 메타, 오픈AI, 앤트로픽 등 AI 기업이 CSAM 확산 제한에 서명했다고 보도했다. 

서명 기업들은 학습 데이터셋에 CSAM이 들어갔는지 확인해야 한다. CSAM 포함 가능성 있는 데이터셋은 모델 학습에서 제외다. 데이터셋에 CSAM 이미지나 관련 링크 발견 즉시 제거해야 한다. 자사 AI 모델이 CSAM 이미지를 생성하지 않도록 별도 테스트도 거치기로 했다. 이에 대한 평가가 완료된 모델만 시중에 나올 수 있다.

구글을 비롯한 메타, 오픈AI, 앤트로픽 등 AI 기업이 CSAM 확산 제한에 서명했다. 비영리 단체도 이에 참여한다. (사진=스론 홈페이지 캡처)

이번 서명에 구글, 메타 등 빅테크뿐 아니라 스태빌리티AI, 미스트랄AI 등 스타트업도 동참한 것으로 전해졌다.

그동안 이미지 생성 AI는 온라인에서 딥페이크를 비롯한 CSAM 확산을 부추겼다. 관련 보고서도 나왔다. 미국 스탠퍼드 연구진은 지난해 12월 개발에 가장 많이 사용되는 데이터셋에 CSAM 이미지 링크가 들어있다는 보고서 결과를 발표했다. 특히 아동 성 착취 자료 확산 방지를 위해 활동하는 미국 국립실종학대아동센터(NCMEC)는 AI가 생성한 CSAM 처리에 애를 먹고 있다.

관련기사

이번 원칙은 미국 아동학대 방지 비영리단체 올 테크 이즈 휴먼도 참여한다. 단체 측은 "AI 이미지 생성은 CSAM 수요를 올리고 아동에 피해를 준다"며 "현실에서 아동 피해자 식별까지 방해할 수 있는 결과를 낳을 것"이라고 더 버지를 통해 전했다. 

구글 수잔 제스퍼 신뢰 및 안전 솔루션 담당 부사장은 "일반 사람들이 악용 사례를 식별, 신고할 수 있는 도구도 곧 제공할 것"이라고 공식 블로그에서 밝혔다.