MADRID, 9. Mai. (EUROPA PRESS) –
Laut Forschern der Universität Cambridge (Vereinigtes Königreich) besteht die Gefahr, dass künstliche Intelligenz, die es Benutzern ermöglicht, Text- und Sprachgespräche mit verlorenen Angehörigen zu führen, psychischen Schaden anrichtet und die Zurückgebliebenen ohne Design-Sicherheitsstandards sogar digital „heimsucht“.
Die in der Fachzeitschrift „Philosophy and Technology“ veröffentlichte Studie unterstreicht das Potenzial für Unternehmen, tote Roboter zu nutzen, um Nutzern heimlich Produkte in der Art eines verstorbenen geliebten Menschen anzubieten, oder Kinder zu beunruhigen, indem sie darauf bestehen, dass ein verstorbener Elternteil noch „bei Ihnen“ sei. „
„Deadbots“ oder „Griefbots“ sind Chatbots mit künstlicher Intelligenz, die anhand der von ihnen hinterlassenen Fingerabdrücke die Sprachmuster und Persönlichkeitsmerkmale der Toten simulieren. Einige Unternehmen bieten diese Dienste bereits an und bieten damit eine völlig neue Art der „Post-Mortem-Präsenz“.
KI-Ethiker am Leverhulme Centre for the Future of Intelligence in Cambridge skizzieren drei Design-Szenarien für Plattformen, die als Teil der sich entwickelnden „digitalen Afterlife-Industrie“ entstehen könnten, um die möglichen Konsequenzen eines schlampigen Designs in einem von ihnen beschriebenen Bereich der KI aufzuzeigen „hohes Risiko“
Wenn sich die Lebenden anmelden, um nach ihrem Tod virtuell wiederhergestellt zu werden, könnten Unternehmen die daraus resultierenden Chatbots nutzen, um überlebende Familienangehörige und Freunde mit unerwünschten Benachrichtigungen, Erinnerungen und Updates zu den von ihnen angebotenen Diensten zuzuspammen, ähnlich als würden sie „von den Toten digital verfolgt“.
Sogar diejenigen, die zunächst Trost in einem „toten Roboter“ finden, könnten sich durch die täglichen Interaktionen erschöpft fühlen, die zu einer „überwältigenden emotionalen Belastung“ werden, argumentieren Forscher, aber sie könnten auch nicht in der Lage sein, eine KI-Simulation zu stoppen, wenn ihr geliebter, inzwischen verstorbener Mensch eine lange Unterschrift geleistet hat Vertrag. Vertrag mit einem digitalen Future-Life-Service.
„Schnelle Fortschritte in der generativen KI bedeuten, dass fast jeder mit Internetzugang und einigen Grundkenntnissen einen verstorbenen geliebten Menschen wiederbeleben kann“, sagte Dr. Katarzyna Nowaczyk-Basinska, Co-Autorin der Studie und Forscherin am Leverhulme Centre for the Future in Cambridge Geheimdienst (LCFI).
„Dieser Bereich der KI ist ein ethisches Minenfeld. Es ist wichtig, die Würde des Verstorbenen in den Vordergrund zu stellen und sicherzustellen, dass diese nicht durch finanzielle Gründe, beispielsweise durch digitale Jenseitsdienste, beeinträchtigt wird.“
„Gleichzeitig kann eine Person eine KI-Simulation als Abschiedsgeschenk an geliebte Menschen hinterlassen, die nicht bereit sind, ihre Trauer auf diese Weise zu verarbeiten. Die Rechte sowohl der Datenspender als auch derjenigen, die nach dem Tod mit Geheimdiensten interagieren, müssen gewahrt bleiben.“ gleichermaßen.
Es gibt bereits Plattformen, die gegen eine geringe Gebühr die Nachbildung von Toten mit KI anbieten, etwa „Project December“, das zunächst GPT-Modelle nutzte, bevor es eigene Systeme entwickelte, und Anwendungen wie „HereAfter“. Ähnliche Dienste sind auch in China entstanden.
Während Hollanek und Nowaczyk-Basinska sagen, dass Designer von Freizeitdiensten vor der Genehmigung aktiv die Zustimmung von Datenspendern einholen sollten, argumentieren sie, dass ein Verbot von Deadbots, die auf nicht zustimmenden Spendern basieren, nicht umsetzbar wäre.
Sie schlagen vor, dass Designprozesse eine Reihe von Aufforderungen für diejenigen beinhalten sollten, die ihre Lieben „wiederbeleben“ möchten, wie zum Beispiel „Haben Sie jemals mit dem Vordergrund gesprochen?“ in der Deadbot-Entwicklung.
Die Forscher empfehlen Altersbeschränkungen für tote Roboter und fordern zudem „sinnvolle Transparenz“, um sicherzustellen, dass Nutzer wissen, dass sie mit einer KI interagieren. Sie könnten beispielsweise aktuellen Warnungen vor Inhalten ähneln, die Anfälle auslösen können.