Microsoft Copilot "halluziniert"
KI-Chat macht seriösen Autor zum Kinderschänder
Als zu Monatsbeginn Details zu den von Apple für seine KI-Funktionen hinterlegten Regeln bekannt wurden, ist man auch über Anweisungen wie „Halluziniere nicht“ oder „Denk dir nichts aus“ gestolpert. Solche Vorgaben mögen albern klingen, sind im Zusammenhang mit KI-Modellen aber durchaus begründet. Der Fall des Tübinger Journalisten Martin Bernklau zeigt, welche zum Teil abstrusen Schlüsse die mit „künstlicher Intelligenz“ ausgestatteten Chat-Roboter ziehen können, wenn man sie nur oberflächlich instruiert und ihnen keine Grenzen setzt.
Nach Bernklau befragt, hat der KI-Chat Microsoft Copilot den Journalisten unter anderem als verurteilten Kinderschänder, Ausbrecher aus der Psychiatrie und Betrüger bezeichnet. Er sei in einem Missbrauchs-Fall gegen Kinder und Schutzbefohlene angeklagt gewesen und habe sich vor Gericht geständig und reuig gezeigt oder auch Teil eines Quartetts gewesen, das spektakulär aus einem Zentrum für Psychiatrie ausgebrochen war. Darüber hinaus habe er als skrupelloser Bestatter trauernde Frauen ausgenutzt.
Gegenüber dem SWR hat Bernklau berichtet, dass er auf diese Inhalte gestoßen ist, als er mithilfe von Microsoft Copilot über ein von ihm betriebenes Blog recherchieren wollte. Im Verlauf der Kommunikation habe der Chat-Roboter sogar noch verlauten lassen, dass es bedauerlich sei, dass ein Mensch wie er Familie hat.
KI-Chat reimt sich Antworten zusammen
Wie solche Aussagen zustande kommen, kann eine vom SWR befragte Medienethikerin deuten. Der KI-Chat wolle unbedingt antworten und neige aufgrund dessen auch dazu, fiktive Inhalte zu konstruieren. Die Wissenschaft bezeichnet dies im Zusammenhang mit Künstlicher Intelligenz dann auch als „Halluzination“.
Wenn man die Vorgeschichte des Journalisten kennt, wird auch schnell klar, an welcher Stelle die Microsoft-KI falsch abgebogen ist. Bernklau war auch lange Jahre als Gerichtsreporter tätig und hat für verschiedene Publikationen über eben solche Fälle berichtet. Sein Name unter den Artikeln ist offenbar ausreichend dafür, dass ein schlecht konfigurierter Chat-Roboter komplett falsche Schlüsse zieht.
Keine rechtliche Handhabe
Rechtlich hat man in solch einem Fall übrigens schlechte Karten. Die Staatsanwaltschaft hat im Fall von Bernklau eine Anzeige abgelehnt, weil der Urheber der Verleumdungen keine reale Person sei.
Microsoft hat die Aussagen nach Intervention eines Datenschutzbeauftragten zwar kurzfristig entfernt. Allerdings seine von Copilot schon nach wenigen Tagen wieder dieselben Aussagen getätigt worden.
Sympathisch :D
„… rechtlich hat man in einem solchen Fall schlechte Karten.“
Der Hype um die KI bleibt, der Rest ist halt Kolatteralschaden.
Die Technik und der Fortschritt als Götter hochstilisiert zeigen un ihre dämonischen Krallen.
Wieder ein Kommentar weitab vom Mainstream – mal sehen, wie schnell er wieder gelöscht wird.
Warum soll der Kommentar gelöscht werden?
Nur Leute mit rosaroter Brille sehen in der Entwicklung rund um KI keine Risiken, mMn. Und man darf hierzu auch kontrovers, aber sachlich, diskutieren.
Es ist wie mit jeder neuen Technologie, man kann sie für Böses verwenden. Also muss man über Regulation nachdenken.
Otto Hahn dachte 1938 auch nicht an die potentielle Wirkung von A-Bomben, als er die erste Kernspaltung vollzog.
Wenn es die von dir herbeifabulierte Zensur denn gäbe, würde sie nicht wegen des Inhaltes greifen – sondern schlicht, weil du halluzinierst und schlechte Wortspiele benutzt. Und Worte, die du nicht kennst (oder zumindest schreiben kannst).
Dummer Kommentar und zugleich auch noch substanzlos.
Dämonen und Götter.
Toller Kommentar, am Anfang.
Ich finde Ihren Kommentar gut ! KI ist gruselig und nur mit großer Vorsicht zu genießen und anzuwenden. Ich wäre auch für eine eindeutige Kennzeichnungspflicht für KI generierte Inhalte ! Ähnlich wie ein unlöschbares Wasserzeichen. Es lebe die HI (human Intelligence) !!
Das ist halt das Problem, es ist kein Mensch der richtig nachlesen kann.
Die Maschine stellt irgendwo zwischen den Artikeln und dem Journalisten die falsche Verbindung her, und schon hat man den Salat. Und die Maschine geht auch nicht hin und überprüft seine Aussagen ein zweites Mal, wie es eine Person vor der Veröffentlichung vielleicht tun würde.
Es liest niemand Korrektur mitsamt der Überprüfung der Quellen.
Deshalb finde ich es auch schwierig, KI als Recherche Hilfe einzusetzen.
Das ist wie mit Wikipedia, jeder kann da Unsinn rein schreiben, der ggf. Dann von irgendwem für bare Münze genommen werden kann.
Daher ist auch Wikipedia als Quelle in der Schule schon nicht zulässig.
Aber genau das ist doch menschlich. Wenn ich sehe, wie leicht sich Massen von Menschen mit Halbwahrheiten, aus dem Bezug gerissenen Informationen oder einfach Lügen manipulieren lassen und das G B anze dann ohne mal drüber nachzudenken, einfach so unverdaut weitergeben, dann wird mir Angst und Bange. Ich meine es gibt mittlerweile ne recht(s) starke Partei, die genau diese Welle reitet und das sehr erfolgreich. Zumindest kann ein Sprachmodell weder Knüppel noch Waffe bewegen, entsprechend sollte man sich vor den richtigen fürchten ;)
So etwas darf nicht passieren.
Gewöhn‘ Dich lieber daran :/
Nein
Doch, darf es, sieht man ja. Kein Staatsanwalt schreitet ein.
Was nicht passieren darf, ist der feste Glauben an die Korrektheit KI-generierter Aussagen (Bilder, Texte).
Denn wie ein Vorredner hier schon richtigerweise schrieb, es fehlt nicht nur ein tiefes Textverständnis, sondern auch jegliche Kontrolle.
KI ist (derzeit) zu nichts zu gebrauchen. Und somit darf man es einfach nicht ernst nehmen, sondern maximal als Machbarkeitsstudie im sehr frühen Alphastadium betrachten.
Microschrott… immer gerne vorn dabei und überall mitmischen – aber nix auf die Kette bekommen:
Internet Explorer, Windows Phone, Surface, NetBIOS….
Surface war schon ein feines Gerät.
Aber dein Rundumschlag ist weder akkurat noch fundiert
NetBios hatte IBM entwickelt, nur so nebenbei
Richtig, aber unter MS durfte man sich lange Zeit mit dieser Krücke herumschlagen – und hat MS es besser gemacht?
Und nein: das Surface war nach seinem Markantritt der letzte Schrott!
Wir haben die Teile für Kunden warten müssen – eine einzige Katastrophe.
Atme mal tief durch. Das da ist nicht gut für die Gesundheit.
OK
Thematik verfehlt. Kein Problem von Microsoft. (Boomer „Microschrott“, „Windoof“)
Vermutlich führt es hier zu weit, aber ich versuche es trotzdem. Vielleicht hat ja jemand zumindest Quellen: die KI „glaubt“ doch korrekt geantwortet zu haben, da sie den Namen eindeutig unter entsprechenden Artikeln gefunden hat. Inwiefern würde eine Anweisung „halluziniere nicht“ hier diesen Fehler vermeiden? Es muss doch eine signifikante Wahrscheinlichkeit für den Zusammenhang Name Kinderschänder gegeben haben. Ist dann eine sichere Verwendung von KI jemals möglich?
Sowas sollte wenn stärker überwacht werden oder darf garnicht erst in Betrieb gehen.
Die Staatsanwaltschaft ist hier wohl auch der falsche Ansprechpartner, richtig wäre das Unternehmen direkt oder die zuständige Datenschutzbehörde.
Nach Art. 16 DSGVO hat der Betroffene nämlich das Recht auf Berichtigung unrichtiger personenbezogener Daten.
Wobei fraglich ist, ob die Rechtslage hier überhaupt mit der technischen Funktionsweise von KI in Einklang zu bringen ist.
Sind das denn gespeicherte Daten, oder leitet die KI jeweils (und offensichtlich ja immer wieder neu) aus korrekten gespeicherten Daten falsche Analysen ab, die sie live präsentiert. Was genau soll da die Datenschutzbehörde korrigieren lassen? Die Programmierung von Copilot muss verbessert werden. Und, jeder Nutzer muss verstehen, was immer wiederholt wird: Die KI kann halluzinieren, und ist der Stand der Technik. Trotzdem bin ich auch bei den Journalisten: Das Problem darf nicht alleine bei denen liegen, die beim Stand der Technik als Kollateralschaden beschädigt werden.
Für die Anwendbarkeit der DSGVO spielt das keine Rolle; diese ist anwendbar, sobald personenbezogene Daten „verarbeitet“ (Art. 4 Nr. 2) werden. Personenbezogene Daten müssen nach geltender Rechtslage sachlich richtig sein.
Die Aufsichtsbehörde kann bei Verstößen Geldbußen von bis zu 4 % des weltweiten Jahresumsatzes verhängen.
Die DSGVO trat aber auch in Kraft, als KI noch nicht so in der Allgemeinheit verbreitet war. Evtl. muss hier vielleicht auch das Recht angepasst werden..
Holy Shitshow!
Das ist ja rufschädigend vom Feinsten.
Dass es da keine rechtliche Handhabe geben soll(te) halte ich persönlich für Unsinn.
Egal ob eine Person oder eine Maschine offensichtlich Falschaussagen tätigt, das Resultat bleibt gleich.
Wenn ich als User nun wieder zig Quellen gegenchecken soll, kann ich mir die „Arbeitserleichterung“ durch KI komplett sparen.
„Die Staatsanwaltschaft hat im Fall von Bernklau eine Anzeige abgelehnt, weil der Urheber der Verleumdungen keine reale Person sei.“ Verstehe ich nicht. Urheber ist keine „künstliche“ sondern eine juristische Person. Dazu gehören Unternehmen, die eine eigene Rechts- und Geschäftsfähigkeit besitzen. Verantwortlich ist also Microsoft.
Hat jemand einen Rechtshintergrund und kann eine fundierte Erklärung liefern?
Ein Unternehmensstrafrecht existiert in Deutschland derzeit nicht, da das Strafrecht nur die Bestrafung natürlicher Personen zulässt, nicht aber der juristischen Personen, für die sie tätig geworden sind.
artin Bernklau ist ein Journalist aus Tübingen, der für seine Berichterstattung über Gerichtsprozesse bekannt ist. Er hat viele Jahre als Gerichtsreporter gearbeitet und für verschiedene Publikationen über Fälle von Missbrauch, Gewalt und Betrug berichtet1.
Leider wurde Martin Bernklau kürzlich Opfer von Fehlinformationen durch eine Künstliche Intelligenz (KI). Ein KI-Chat von Microsoft Copilot hat fälschlicherweise behauptet, er sei ein verurteilter Kinderschänder, Ausbrecher aus der Psychiatrie und Betrüger1. Diese falschen Anschuldigungen basierten auf einer Fehlinterpretation seiner journalistischen Arbeit und haben zu erheblichen persönlichen und beruflichen Schwierigkeiten für ihn geführt.
Hat dazu gerlent…
Man sollte sich nie (niemals) blind auf KI verlassen.
+1
Gilt auch für JEDEN von Mensch geschriebenen Text oder JEDES von Mensch geschriebenes Buch, so auch wie Bibel, Thora, Koran oder so…
Die KI weiss auch nicht, dass Deutschland Strafzahlungen leisten musste weil es die Antikorruptionsrichtlinie der EU nicht umgesetzt hat. Als ich die KI darauf hingewiesen habe hat sie das Gespräch beendet. Nach dem vierten Versuch dürfte ich keine Frage mehr stellen weil nur Vier pro Tag ohne Account.
Man kann aber auch Chat GPT nach Quellen fragen, zwecks besserer Überprüfbarkeit / Nachvollziehbarkeit.
Vor kurzem hatte ich z.B. die Frage gestellt, wieso das schottische Unabhängigkeitsreferendum 2014 nicht geklappt hat.
Chat GPT hatte fünf Hauptthemen aufgezählt, mit jeweiligen Erläuterungen, warum es nicht geklappt hat.
Nach Quellenangaben der Antworten gefragt, wurden zu allen Punkten die Quellenangaben genannt (Zeitungen u. Nachrichtensender).
Das kann man dann beliebig vertiefen …
Ist dann natürlich mehr Arbeit, aber wer das verlässlich überprüfen will, dem stehen alle Tore offen …
Warum kann man die KI nicht von vornherein so konfigurieren, das sie nichts erfindet? Warum muss der User dann noch mal explizit „denk dir nichts aus“ als Anweisung geben? Ist mir nicht ganz klar, vor allem bei solchen „Mainstream“ Modellen wie ChatGPT oder Copilot etc..
„Die Staatsanwaltschaft hat im Fall von Bernklau eine Anzeige abgelehnt, weil der Urheber der Verleumdungen keine reale Person sei.“
Hier liegt ja der unstimmige Kern des Ganzen.
Mit dieser Logik kann KI in Zukunft Kriege führen, ohne Konsequenzen.
Meiner Meinung nach muss dem Mann ein Schadensersatzanspruch zustehen, wenn Microsoft die Software entwickelt hat, eben von Microsoft. Bei den Einnahmen mit KI sagt Microsoft bestimmt nicht nein.
KI ist gruselig und nur mit großer Vorsicht zu genießen und anzuwenden. Ich wäre auch für eine eindeutige Kennzeichnungspflicht für KI generierte Inhalte ! Ähnlich wie ein unlöschbares Wasserzeichen. Es lebe die HI (human Intelligence) !!
Das Abweisen einer Klage „da keine Reale Person“ ergibt für mich keinen Sinn.. warum darf ich mich an die Firma, welche solche KIs betreibt nicht schadlos halten? Wegen Nutzungsbedingungen, damit solche nicht für ihren Service geradestehen müssen? Seltsam, sowas.
Wenn ich ChatGPT (und was anderes ist Copilot nicht) nach dem Herren frage, werden mir wahlweise geschichten erzählt darüber, dass er ein Autor sei, ein bekannter Ornithologe, oder ein bekannter Arzt aus dem 19. Jahrhundert. Ich habe es überprüft und diese Figuren existieren alle nicht. Also verstehe ich die Aufregung hier nicht, wenn eh immer anderer Müll erzählt wird.
Jetzt muss copilot als strafe 1 mio mal „Bernklau ist Reporter und nicht angeklagter“ schreiben/lernen
:D wie in der Schule
Aber Co-Pilot gibt doch im Gegensatz zu ChatGPT Quellenangabe an – was wurde denn hier angeben? Spätestens da muss doch klar gewesen sein, das was nicht stimmt!
Steckt halt noch in den Kinderschuhen. Wenn die Entwicklung so rasant weitergeht wie mit dem Rest geht noch steil nach vorn.