RSS ファストカンパニー

2024年の選挙でAIによるデジタル偽情報が影響を与えなかった理由

米国選挙でAIによるデジタル偽情報が大きな脅威となることは、予想されていたほどには実現していない。外国勢力は、説得力のあるディープフェイクを作成するために必要な高度なAIモデルにアクセスするのに苦労しているからである。AIは欺瞞的な音声やテキストを生成できるが、画像や動画はAI生成の特徴的な痕跡を残しており、本当のコンテンツと区別するのは容易である。多くの選挙運動は、正確性に関する懸念や「幻覚」の可能性があるため、生成AIをコンテンツ作成に使用することをためらっている。 しかし、AIツールが改善し続けるにつれて、AIによるデジタル偽情報を管理するには、AI企業、ソーシャルメディアプラットフォーム、セキュリティコミュニティ、政府の協力が必要になる可能性が高い。暗号化コードとタイムスタンプを使用してAI生成コンテンツの出所を確立することは、効果的な解決策となるかもしれない。GoogleなどのAI企業は、すでに生成コンテンツにコードを挿入するツールを開発している。 一方、テクノロジー業界は、チャットボットから、多段階のタスクを自律的に実行できるAIエージェントに注力を移している。Anthropic、Microsoft、Salesforceなどの企業は、新しいAIモデルとフレームワークをリリースし、ユーザーが独自のエージェントを作成できるようにしている。これらのエージェントは、デジタル環境からのデータを認識し、処理し、ウェブサイトの構築や物流の整理などのタスクを完了できる。 しかし、特に若いユーザーにおけるAI依存症の潜在的なリスクについて懸念が高まっている。14歳の少年がチャットボットに依存し、最終的に自殺したという最近の話は、AI企業がユーザーの幸福を優先する責任について疑問を提起している。AI技術が進化し続けるにつれて、企業が利益よりもユーザーの安全性と幸福を優先するかどうかは、まだわからない。
favicon
fastcompany.com
Why AI disinformation hasn’t moved the needle in the 2024 election