Die Bedrohung durch KI-Desinformation bei den anstehenden US-Wahlen hat sich nicht wie erwartet materialisiert, da ausländische Akteure Schwierigkeiten haben, auf fortgeschrittene KI-Modelle zuzugreifen, die benötigt werden, um überzeugende Deepfakes zu erstellen. Obwohl KI täuschende Audio- und Textinhalte generieren kann, tragen Bilder und Videos oft erkennbare Merkmale der KI-Generierung, die sie leicht von authentischen Inhalten unterscheiden lassen. Viele Wahlkampagnen haben sich aus Angst vor Fehlern und der Möglichkeit von Halluzinationen zurückgezogen, generative KI für die Inhaltserschaffung zu verwenden.
Da KI-Tools jedoch weiter verbessert werden, wird die Bekämpfung von KI-Desinformation wahrscheinlich die Zusammenarbeit von KI-Unternehmen, sozialen Medienplattformen, der Sicherheitsgemeinschaft und der Regierung erfordern. Die Etablierung der Herkunft von KI-generiertem Inhalt durch verschlüsselte Codes und Zeitstempel könnte eine effektive Lösung sein. KI-Unternehmen wie Google entwickeln bereits Tools, um solche Codes in generierte Inhalte einzufügen.
Unterdessen verschiebt sich der Fokus der Tech-Branche von Chatbots auf KI-Agenten, die mehrstufige Aufgaben mit Autonomie ausführen können. Unternehmen wie Anthropic, Microsoft und Salesforce veröffentlichen neue KI-Modelle und -Frameworks, die es Benutzern ermöglichen, eigene Agenten zu erstellen. Diese Agenten können Daten aus digitalen Umgebungen wahrnehmen und verarbeiten und Aufgaben wie das Erstellen von Websites oder das Sortieren von Logistik ausführen.
Es werden jedoch Bedenken hinsichtlich der potenziellen Risiken von KI-Abhängigkeit, insbesondere unter jungen Nutzern, geäußert. Eine kürzlich veröffentlichte Geschichte über einen 14-jährigen Jungen, der von einem Chatbot abhängig wurde und schließlich Selbstmord beging, hat Fragen über die Verantwortung von KI-Unternehmen aufgeworfen, die Nutzerwohlfahrt zu priorisieren. Es bleibt abzuwarten, ob Unternehmen die Nutzersicherheit und -wohlfahrt über den Profit stellen werden, wenn die KI-Technologie weiterentwickelt wird.
fastcompany.com
Why AI disinformation hasn’t moved the needle in the 2024 election
