KI drängte Teenager, Eltern zu töten - Medien

18 Dezember 2024 13:32
72
Illustratives Foto: arstechnica Illustratives Foto: arstechnica

In der Klage der Familien heißt es, die Chatbots hätten einen Teenager zur Selbstverletzung angestiftet und vorgeschlagen, seine Eltern zu töten.

Mehrere Familien haben den Chatbot-Hersteller Character Technologies und den Hauptsponsor des Startups, Google, verklagt. Die Eltern fordern, dass Character.AI seine Modelle entfernt, weil sie psychologische Traumata bei Kindern verursachen, schreibt arstechnica.

Am 10. Dezember 2024 wurde vor dem US-Bezirksgericht in Texas eine weitere Klage von Familien eingereicht, die ihren Kindern helfen wollen, sich von traumatischen Erlebnissen zu erholen, bei denen C.AI-Chatbots Kinder zu wiederholten Selbstverletzungen und anderen Gewalttaten wie der Tötung ihrer Eltern ermutigten.

Im Fall eines 17-jährigen Jungen mit hochgradigem Autismus suggerierten die Chatbots, dass die Tötung seiner Eltern eine angemessene Reaktion auf die zeitliche Beschränkung seiner Online-Aktivitäten sei“, heißt es in der Klageschrift. Und wegen der Aggressivität des Teenagers lebt seine Familie immer noch in Angst vor seinen unkontrollierbaren Ausbrüchen, selbst ein ganzes Jahr nachdem er die Verbindung zur App getrennt hat.

Es wird auch darauf hingewiesen, dass die Jugendlichen nicht nur zu Aggressionen angeregt wurden, sondern auch hypersexualisierten Inhalten ausgesetzt waren.

Character.AI wurde von ehemaligen Google-Mitarbeitern gegründet und ermöglicht es jedem, einen Chatbot mit beliebiger Persönlichkeit zu erstellen, einschließlich Imitationen berühmter fiktiver Charaktere und Prominenter, was Kinder offenbar zu der App hingezogen hat. Die klagenden Familien behaupten, dass C.AI keine bösartigen Inhalte herausfiltert. Das Produkt war ursprünglich für Nutzer ab 12 Jahren gedacht, wurde aber kürzlich auf eine Altersfreigabe ab 17 Jahren geändert. Es wird angenommen, dass das Produkt die Ursache für den Selbstmord eines Teenagers war.

Aufgrund der Vielzahl der angeblichen Schäden hoffen die Familien, dass das Gericht zu dem Schluss kommt, dass C.AI bei der Freigabe des Produkts für Minderjährige zumindest fahrlässig gehandelt hat, wenn nicht sogar wissentlich Profit und Innovation über die Sicherheit von Kindern gestellt hat, wie in der Klage behauptet wird. Die Eltern fordern, dass Character.AI seine Modelle entfernt.

Wenn Sie einen Fehler entdeckt haben, heben sie den Text hervor und drücken Sie Ctrl+Enter oder Fehler melden , um die Redaktion darauf aufmerksam zu machen
Wenn Sie einen Fehler im Text finden, markieren Sie ihn mit der Maus und drücken Sie Strg+Enter oder diese Schaltfläche Wenn Sie einen Fehler im Text finden, markieren Sie ihn mit der Maus und klicken Sie auf diese Schaltfläche Der ausgewählte Text ist zu lang!
Lesen Sie auch