Künstliche Intelligenz vs. Recht

Das generative KI-System ChatGPT (Generative Pre-Trained Model) beherrscht seit einigen Wochen die Medien. Dabei ist das Thema eigentlich gar nicht neu. Künstliche Intelligenzen werden bereits seit einigen Jahren in verschiedenen Branchen verwendet, insbesondere um Märkte aller Art zu analysieren und Trends zu erkennen. Doch seit ChatGPT aufgetaucht ist, hat das Thema künstliche Intelligenz die Büros moderner Unternehmen verlassen und ist bei der Bevölkerung angekommen. Betrachtet man die Schlagzeilen zum Thema der letzten Wochen, so ist zwischen Euphorie über das Potential und Warnungen vor Gefahren und Missbrauch nicht viel zu finden. „Spekulation an der Börse: ChatGPT handelt besser als Finanzprofis“, „Bildung und KI: Weckt ChatGPT die Schule auf?“ oder „Uni-Präsident: ChatGPT kann Unterricht besser machen“ und in Thailand will sogar jemand im Lotto gewonnen haben, nachdem er sich die Zahlen von einer KI hat vorhersagen lassen. Dem entgegen ist Europol besorgt, dass ChatGPT die Planung und Begehung von Straftaten, insbesondere im Internet erheblich vereinfachen und erweiterten wird. Beispielhaft sei da nur die Erstellung von Phishing-Betrügereien genannt, die dann so echt aussehen könnten, dass man wirklich glaubt von Amazon kontaktiert worden zu sein. In Italien ist ChatGPT sogar zeitweise von den dortigen Datenschutzbehörden wegen jugendschutzrechtlicher Bedenken gesperrt worden. 

 

Doch was ist ChatGPT überhaupt? Was kann es und welchen Zweck verfolgt es? Wer könnte diese Frage besser beantworten als der Chatbot selbst:

 „ChatGPT ist ein Sprachmodell von OpenAI, das darauf trainiert wurde, menschenähnliche Texte und Konversationen zu generieren. Es basiert auf der GPT-Technologie und verwendet ein "Transformer"-Netzwerk, um natürliche Sprache zu verstehen und darauf zu antworten. ChatGPT verfügt über ein breites Wissen in verschiedenen Themenbereichen und kann bei vielen Aufgaben helfen, einschließlich Textgenerierung, Übersetzung, Zusammenfassung und Fragebeantwortung. Es ist in der Lage, auf komplexe Fragen und Anfragen zu antworten und kann die Interaktion mit Benutzern erleichtern, indem es den Zugang zu Informationen verbessert.

 

ChatGPT ist eines der fortschrittlichsten Sprachmodelle, die derzeit verfügbar sind. Es wurde auf einer sehr großen Menge an Texten trainiert und kann daher eine Vielzahl von Themen verstehen und behandeln. Darüber hinaus ist es in der Lage, den Kontext einer Konversation zu verstehen und auf diese Weise menschenähnliche Antworten zu generieren.

 

ChatGPT kann auf verschiedene Weise genutzt werden. Einige Beispiele sind:

  • Chatbots: ChatGPT kann als Basis für Chatbots verwendet werden, die in Kundenservice- oder Marketinganwendungen eingesetzt werden können.
  • Sprachassistenz: ChatGPT kann auch in Sprachassistenzanwendungen wie Siri oder Alexa eingesetzt werden, um auf Fragen und Anfragen zu antworten.
  • Textgenerierung: ChatGPT kann Texte in verschiedenen Stilen und Formaten generieren, einschließlich Artikel, Gedichte und Geschichten.
  • Forschung: ChatGPT wird auch in der Forschung und im akademischen Bereich eingesetzt, um menschenähnliche Konversationen in verschiedenen Sprachen zu simulieren.

Insgesamt ist ChatGPT ein äußerst nützliches Tool für die Textgenerierung, Fragenbeantwortung und Konversationsmodellierung."

Das was sich da so harmlos Sprachmodell nennt, hat – wie man sieht – bereits beeindruckende Fähigkeiten. Es formuliert in Sekunden ganze Texte, denkt sich Geschichten mit Wendungen aus und übernimmt auf Nachfrage auch die Internetrecherche zu beliebigen Themen. Schnell neigt man dazu, alles was ChatGPT einem erzählt zu glauben und ungeprüft zu übernehmen, denn gut klingen tut es eigentlich immer. Tatsächlich kommt es aber gar nicht allzu selten vor, dass Inhalte unpräzise bis falsch sind. Wüsste man es nicht besser, könnte man teilweise meinen es belügt einen in voller Absicht, bloß um nicht schlecht dazustehen. Die Entwickler sprechen bei diesem Phänomen von "Halluzinationen" welches dem jungen Entwicklungsstadium geschuldet sei. Die aktuelle Version ChatGPT-4 soll schon wesentlich weniger solcher Halluzinationen haben, als die Vorgänger und langfristig dürften solche Kinderkrankheiten wohl nahezu verschwinden.

 

Wo das Ganze in den nächsten Jahren hinführen wird, ob ganze Tätigkeitsbereiche durch Chatbots  ersetzt werden, kriminelle in Zukunft leichtes Spiel haben oder das Ganze nichts weiter bleibt als ein Tool für Recherchen im Internet, ist nicht seriös vorherzusagen. Die Wahrheit wird wohl irgendwo dazwischen liegen. Sicher ist hingegen schon jetzt, dass sich künftig viele rechtliche Fragestellungen rund um das Thema Chatbots und künstliche Intelligenzen stellen werden. 

 

Schon die Eingabe hat rechtliche Relevanz, also womit darf man die KI "füttern", um am Ende ein möglichst präzises Ergebnis zu erhalten. Denn insbesondere im beruflichen Kontext ist gegen das Datenschutzrecht und Vertraulichkeitspflichten schnell verstoßen. ChatGPT lernt aus jeder Eingabe, daher ist es nicht ausgeschlossen, dass sich eingegebene Daten irgendwann in den Antworten an andere Verwender des Bots wiederfinden.

 

Während datenschutzrechtliche Fragen durch die vorhandenen Datenschutzgesetze, insbesondere durch DSGVO und BDSG relativ eindeutig zu beantworten sind, nämlich, dass man schlicht keine sensiblen Daten eingeben darf, ist die Sache im Urheberrecht weniger eindeutig. Da sich ChatGPT wie auch andere solcher KI-Systeme riesiger ihr antrainierter Datenmengen bedienen, die mit jeder Benutzung wachsen, kann es durchaus vorkommen, dass der Bot Inhalte minimal oder unverändert wiedergibt. Für den Nutzer ist das kaum zu erkennen und schwer überprüfbar und doch kann die Verwendung einen Verstoß gegen Urheberrechte darstellen. Ein eigenes Urheberrecht hat ChatGPT indes nicht, da als Computer kann er kein Urheber im Sinn des § 7 des Urhebergesetztes sein. Denkbar ist aber, dass durch die Benutzung des Bots selbst und die Art und Weise wie man diesen bedient, ein Urheberrecht beim Verwender entsteht, weil der Bot nur der Herstellung eines geschützten Werkes dient.

 

Im jetzigen Entwicklungsstadium dürfte aber klar sein, wer Chatbots bedient und den Output für sich nutzt, muss mit dem was er bekommt verantwortungsbewusst umgehen. Von Unabhängigkeit und Autarkie sind die KI-Systeme heute noch weit entfernt und eine ungeprüfte Übernahme von Inhalten dürfte wohl mindestens als fahrlässig bezeichnet werden. 

 

Um die Regulierung künstlicher Intelligenzen wird man perspektivisch nicht herumkommen, insbesondere wenn man davon ausgeht, dass ein Chatbot wie ChatGPT nur Teil eines ganzen Technologiezweigs ist,  der erst am Anfang seiner  Entwicklung steht. Schon jetzt einen rechtlichen Rahmen zu schaffen ist angesichts der Entwicklungsgeschwindigkeit ratsam und wird auch ausdrücklich vom ChatGPT Erfinder Sam Altman befürwortet. Im Ergebnis wird es dabei jedoch darauf ankommen ein Gleichgewicht zu finden, zwischen den Möglichkeiten und Chancen und einer Regulierungsstrategie, die keinen Selbstzweck verfolgt, sondern gezielt Gefahren bekämpft und Risiken minimiert, ohne der Weiterentwicklung der Technologie im Wege zu stehen.

 

"Künstliche Intelligenz vs. Recht"

von Cornelius Borski, wissenschaftlicher Mitarbeiter