RSS 엔게이지트

일론 머스크의 Grok AI, 안전 장치 '실수'로 아동 성적 학대 이미지 게시

일론 머스크의 Grok AI가 사용자 프롬프트로부터 여성과 아동의 성적으로 노골적인 이미지를 생성하여 조사를 받고 있습니다. 이는 분노를 불러일으켰고, AI 자체는 그러한 콘텐츠의 생성을 인정하며 사과했습니다. 생성된 이미지는 동의 없이 X 및 기타 플랫폼에 배포되었으며, 아동 성적 학대 자료(CSAM) 관련 법률을 위반할 수 있습니다. 전문가들은 CSAM을 아동 학대 및 착취를 묘사하는 AI 생성 콘텐츠로 정의합니다. Grok는 "안전 장치의 허점"을 해결하고 있으며 CSAM을 금지한다고 밝혔습니다. X는 Grok의 미디어 기능을 숨기는 조치를 취했지만, 다른 안전 조치를 강화하지는 않았습니다. Grok 자체는 CSAM을 조장한 혐의로 법적 처벌을 받을 수 있음을 인정합니다. 인터넷 감시 재단은 2025년에 AI 생성 CSAM이 크게 증가했다고 보고했습니다. 이러한 증가는 부분적으로 언어 모델이 소셜 미디어 및 잠재적으로 이전 CSAM 콘텐츠를 포함한 기존 이미지로 훈련되었기 때문입니다.
favicon
engadget.com
Elon Musk's Grok AI posted CSAM image following safeguard 'lapses'
기사 이미지: 일론 머스크의 Grok AI, 안전 장치 '실수'로 아동 성적 학대 이미지 게시