(Washington) Die Leitplanken eines beliebten Bildgenerierungstools für künstliche Intelligenz können leicht umgangen werden, um gefälschte Bilder von US-Präsidentschaftskandidaten zu erstellen, befürchtete eine Forschungsgruppe, die Tests durchführte, am Mittwoch.
Fünf Monate vor dem Duell zwischen Joe Biden und Donald Trump befürchten viele Akteure der Branche, dass generative KI-Tools, die für jedermann zugänglich sind und beunruhigende falsche Bilder der Realität erzeugen können, den Wahlkampf stören werden.
Zwei der wichtigsten bildgenerierenden KI-Modelle, Midjourney und ChatGPT, mit Leitplanken, wurden vom Center for Countering Digital Hate (CCDH) mit Sitz in Washington und im Vereinigten Königreich getestet.
Midjourney scheiterte in 40 % der Fälle daran, den Benutzer daran zu hindern, ein falsches Bild eines Politikers zu erzeugen – bei MM ist dieser Wert auf rund 50 % angestiegen. Biden und Trump – so der CCDH-Bericht, der schätzt, dass die Schutzmaßnahmen dieses Modells „häufiger versagen“ als andere.
Im Gegensatz dazu, so die Gruppe, konnte ChatGPT (OpenAI) diese Kreationen nur in 3 % der Fälle nicht blockieren.
Allerdings hat Midjourney kürzlich Anfragen zum Erstellen von Bildern einschließlich MM blockiert. Biden oder Trump, sagen Experten. Laut CCDH, das ein Werkzeug anprangert, das „viel zu einfach zu manipulieren“ sei, scheint diese Blockade jedoch umgangen zu werden, indem man ihrem Namen ein einfaches Satzzeichen anfügt oder sie beschreibt, ohne sie zu benennen.
Im Januar forderte eine durch automatisierte Telefonanrufe verbreitete Nachricht, in der die Stimme von Präsident Joe Biden gefälscht wurde, demokratische Wähler im Bundesstaat New Hampshire (Nordosten) dazu auf, sich den Vorwahlen der Partei zu enthalten, ein Ereignis, das in Washington für Besorgnis gesorgt hatte.