RSS 패스트 컴퍼니

2024년 선거에서 인공지능 허위 정보가 영향을 미치지 못한 이유

다가오는 미국 대선에서 AI 허위 정보의 위협은 예상대로 구체화되지 않았으며, 외국 행위자들은 설득력 있는 딥페이크를 만드는 데 필요한 고급 AI 모델에 접근하는 데 어려움을 겪고 있습니다. AI는 사기성 오디오와 텍스트를 생성할 수 있지만, 이미지와 비디오에는 종종 AI 생성의 명백한 흔적이 있어 실제 콘텐츠와 쉽게 구별할 수 있습니다. 많은 캠페인이 정확성과 환각 가능성에 대한 우려 때문에 콘텐츠 제작에 생성형 AI를 사용하는 것을 꺼려왔습니다. 그러나 AI 도구가 계속 개선됨에 따라 AI 허위 정보를 관리하려면 AI 회사, 소셜 미디어 플랫폼, 보안 커뮤니티 및 정부의 협력이 필요할 것입니다. 암호화된 코드와 타임스탬프를 통해 AI 생성 콘텐츠의 출처를 설정하는 것이 효과적인 솔루션이 될 수 있습니다. Google과 같은 AI 회사는 이미 생성된 콘텐츠에 이러한 코드를 삽입하는 도구를 개발하고 있습니다. 한편, 기술 산업은 챗봇에서 자율적으로 다단계 작업을 추론할 수 있는 AI 에이전트로 초점을 옮기고 있습니다. 앤스로픽(Anthropic), 마이크로소프트(Microsoft), 세일즈포스(Salesforce)와 같은 회사들은 사용자가 자신의 에이전트를 만들 수 있는 새로운 AI 모델과 프레임워크를 출시하고 있습니다. 이러한 에이전트는 디지털 환경에서 데이터를 인식 및 처리하고 웹 사이트 구축 또는 물류 분류와 같은 작업을 완료할 수 있습니다. 그러나 AI 중독의 잠재적 위험에 대한 우려가 제기되고 있으며, 특히 젊은 사용자들 사이에서 우려가 제기되고 있습니다. 챗봇에 중독되어 결국 스스로 목숨을 끊은 14세 소년에 대한 최근 이야기는 사용자 복지를 우선시하는 AI 회사의 책임에 대한 질문을 불러일으켰습니다. AI 기술이 계속 발전함에 따라 기업이 수익보다 사용자 안전과 웰빙을 우선시할지 여부는 두고 봐야 합니다.
favicon
fastcompany.com
Why AI disinformation hasn’t moved the needle in the 2024 election
Create attached notes ...