X는 공개되지 않은 AI 생성 무력 충돌 영상을 게시하는 콘텐츠 제작자를 수익 공유 프로그램에서 정지시킬 것입니다. 최초 위반자는 90일 정지, 반복 위반자는 영구 제명됩니다. Nikita Bier가 발표한 이 정책은 특히 전시 상황에서 콘텐츠의 진정성을 유지하는 것을 목표로 합니다. 이 규칙은 수익 공유 프로그램에 참여하는 제작자와 무력 충돌 관련 AI 영상에 초점을 맞추며, 모든 AI 콘텐츠를 대상으로 하는 것은 아닙니다. 위반 사항은 커뮤니티 노트를 통해 또는 AI 메타데이터 감지를 통해 식별됩니다. Bier는 공식적인 전쟁 선포가 드물더라도 전쟁 중 진정한 정보의 중요성을 강조했습니다. AI 영상 생성 기술의 급속한 발전으로 인해 실제 영상과 가짜 영상을 구별하는 것이 점점 더 어려워지고 있습니다. X는 이미 Grok으로 생성된 콘텐츠에 워터마크를 표시하고 있지만, 이는 사용자에게 새로운 공개 요구 사항입니다. X는 또한 모든 합성 콘텐츠에 대한 더 광범위한 AI 라벨링 토글을 테스트하고 있지만, 출시 일정은 발표되지 않았습니다. 이러한 움직임은 기만적인 AI 생성 미디어의 확산에 대한 우려가 커지고 있음을 반영합니다.
engadget.com
X to require AI labels on armed conflict videos from paid creators, citing ‘times of war’
