KI im Job: So vermeiden Sie Halluzinationen und Fehler
 
                        Richter weltweit haben es mit einem wachsenden Problem zu tun: Schriftsätze, die mit Hilfe von Künstlicher Intelligenz erstellt wurden und Fehler enthalten, etwa Verweise auf Gerichtsentscheidungen, die es gar nicht gibt. Das berichten Anwälte sowie Gerichtsakten.
Der Trend ist eine Warnung für alle, die KI-Tools im Job lernen. Viele Arbeitgeber suchen Menschen, die die Technik für Recherche oder das Verfassen von Berichten nutzen können. Lehrkräfte, Buchhalter sowie Marketingprofis beschäftigen sich zunehmend mit Chatbots und Assistenten, um Ideen zu generieren und produktiver zu werden. Dabei merken sie auch: Die Programme können Fehler machen.
Ein französischer Datenwissenschaftler und Jurist, Damien Charlotin, hat in den vergangenen sechs Monaten mindestens 490 Gerichtseingaben katalogisiert, die „Halluzinationen“ enthielten, also KI-Antworten mit falschen oder irreführenden Informationen. Das Tempo steigt, weil immer mehr Menschen KI nutzen, sagte er.
„Selbst versierte Nutzer können damit Probleme haben“, sagte Charlotin. „KI kann ein Segen sein. Sie ist wunderbar, aber es gibt diese Fallstricke.“
Charlotin, Senior Research Fellow an der HEC Paris, einer Wirtschaftshochschule vor den Toren der französischen Hauptstadt, hat eine Datenbank aufgebaut, um Fälle zu erfassen, in denen ein Gericht feststellte, dass generative KI halluzinierte Inhalte produziert hatte, etwa erfundene Rechtsprechung und falsche Zitate.
Die meisten Entscheidungen stammen aus US-Verfahren, in denen sich Klägerinnen und Kläger ohne Anwalt selbst vertraten, sagte er. Die meisten Richterinnen und Richter warnten vor den Fehlern, einige verhängten Geldstrafen.
Doch auch namhafte Unternehmen reichten problematische Schriftsätze ein. Ein Bundesrichter in Colorado befand, dass ein Anwalt von MyPillow Inc. in einem Verleumdungsverfahren gegen das Unternehmen und seinen Gründer Michael Lindell eine Eingabe mit fast 30 fehlerhaften Zitaten eingereicht hatte.
Nicht nur die Rechtsbranche ringt mit den Tücken der KI. Die KI-Überblicke oben auf Suchergebnisseiten enthalten häufig Fehler.
KI-Tools werfen zudem Datenschutzfragen auf. Beschäftigte aller Branchen sollten sorgsam abwägen, welche Details sie hochladen oder in Prompts schreiben, damit vertrauliche Informationen von Arbeitgebern und Kundschaft geschützt bleiben.
Rechts- und Arbeitsexperten schildern ihre Erfahrungen mit KI-Fehlern und nennen Fallstricke, die es zu vermeiden gilt.
Denken Sie an KI als Assistenz
Überlassen Sie KI keine großen Entscheidungen. Manche Nutzende behandeln sie wie einen Praktikanten: Aufgaben werden delegiert, das Ergebnis wird geprüft.
„Denken Sie an KI als Ergänzung Ihres Arbeitsablaufs“, sagte Maria Flynn, CEO von Jobs for the Future, einer gemeinnützigen Organisation zur Arbeitskräfteentwicklung. Sie kann als Assistenz dienen, etwa beim Formulieren einer E-Mail oder bei der Recherche einer Reiseplanung. Als vollständiger Ersatz taugt sie nicht.
Zur Vorbereitung auf ein Meeting testete Flynn ein internes KI-Tool und bat es, auf Basis eines Artikels, den sie mit dem Team geteilt hatte, Diskussionsfragen vorzuschlagen.
„Einige der vorgeschlagenen Fragen passten nicht wirklich zu unserem Kontext. Ich konnte das zurückmelden … und dann kam es mit fünf sehr durchdachten Fragen zurück“, sagte sie.
Auf Richtigkeit prüfen
Auch im Output des Tools, das noch im Pilotbetrieb ist, fand Flynn Probleme. Einmal bat sie es, Informationen über die Arbeit ihrer Organisation in verschiedenen Bundesstaaten zu sammeln. Das Tool behandelte jedoch abgeschlossene Arbeit und Förderanträge als dasselbe.
„In diesem Fall war unser KI-Tool nicht in der Lage, zwischen etwas, das vorgeschlagen wurde, und etwas, das abgeschlossen war, zu unterscheiden“, sagte Flynn.
Zum Glück hatte sie genug institutionelles Wissen, um die Fehler zu erkennen. „Wenn Sie neu in einer Organisation sind, fragen Sie Kolleginnen und Kollegen, ob die Ergebnisse für sie plausibel wirken“, riet Flynn.
KI hilft beim Ideenfinden. Für Fakten ist es riskant, sich allein auf sie zu stützen. Nehmen Sie sich Zeit, die Angaben zu prüfen. Auch wenn es verlockend ist, diesen Schritt zu überspringen.
„Viele nehmen an, dass etwas stimmt, weil es so plausibel klingt und bequem ist“, sagte Justin Daniels, Anwalt aus Atlanta und Anteilseigner der Kanzlei Baker Donelson. „Alle Verweise muss ich nachsehen. Und wenn ich mir von KI einen Vertrag zusammenfassen lasse, lese ich anschließend, was im Vertrag steht. Das ist unbequem und kostet Zeit. Aber es ist nötig. So sehr man glaubt, KI könne das ersetzen, sie kann es nicht.“
Vorsicht bei Mitschreib-Tools
Es ist verlockend, KI Besprechungen aufzeichnen und mitschreiben zu lassen. Manche Tools erstellen nützliche Zusammenfassungen und leiten aus Gesagtem Handlungsschritte ab.
Viele Rechtsordnungen verlangen vor Tonaufnahmen die Zustimmung der Teilnehmenden. Bevor Sie KI zum Mitschreiben nutzen, überlegen Sie, ob das Gespräch privilegiert und vertraulich bleiben sollte, sagte Danielle Kays, Partnerin der Kanzlei Fisher Phillips in Chicago.
In Hochrisikosituationen wie Untersuchungen, Leistungsbeurteilungen oder Besprechungen zur Rechtsstrategie sollten Sie vor dem Einsatz eines Mitschreibers Rücksprache mit Kolleginnen und Kollegen aus der Rechts- oder Personalabteilung halten, schlägt sie vor.
„Es gibt Stimmen, die bei der KI-Nutzung verschiedene Einwilligungsstufen verlangen. Das arbeitet sich gerade durch die Gerichte“, sagte Kays. „Ich würde Unternehmen raten, das weiter im Blick zu behalten, während darüber prozessiert wird.“
Vertrauliche Informationen schützen
Wenn Sie kostenlose KI-Tools für ein Memo oder eine Marketingkampagne nutzen, verraten Sie keine identifizierenden Informationen oder Betriebsgeheimnisse. Nach dem Hochladen ist es möglich, dass andere, die dasselbe Tool verwenden, darauf stoßen.
Der Grund: Wenn andere ein KI-Tool fragen, durchsucht es für die Antwort verfügbare Informationen – einschließlich Details, die Sie preisgegeben haben, sagte Flynn. „Es unterscheidet nicht, ob etwas öffentlich oder privat ist“, fügte sie hinzu.
Lernen erwünscht
Bietet Ihr Arbeitgeber keine KI-Schulung an, probieren Sie kostenlose Tools wie ChatGPT oder Microsoft Copilot aus. Einige Universitäten und Tech-Unternehmen bieten Kurse an, die helfen, zu verstehen, wie KI funktioniert und wofür sie nützlich sein kann.
Wertvoll sind laut Flynn Kurse, die zeigen, wie man gute Prompts formuliert, oder praxisnahe Angebote mit vielen Übungsmöglichkeiten.
Trotz möglicher Probleme mit den Tools ist es nützlich zu lernen, wie sie funktionieren – in einer Zeit, in der sie überall sind.
„Die größte potenzielle Falle beim Lernen, KI einzusetzen, ist, es gar nicht zu lernen“, sagte Flynn. „Wir alle werden KI fließend beherrschen müssen. Die ersten Schritte zu mehr Vertrautheit, Kompetenz und Sicherheit im Umgang mit dem Tool sind entscheidend.“
Today
