Künstliche Intelligenz (KI) entsteht aus Softwareprogrammen, die lernfähig sind und sich daher selbst weiterentwickeln können. Sie ist – zumeist aber noch nicht unter voller Ausnutzung dieses Potentials („starke KI“) – bereits jetzt allgegenwärtig und wird vor allem dort eingesetzt, wo es um die Erkennung von Mustern oder die Auswertung großer Datenmengen geht, zB in der medizinischen Diagnostik (Vergleich konkreter Röntgen/CT-Bilder mit Millionen anderer), bei selbstfahrenden Autos, Chatbots, Sprachassistenten, dynamischer bzw personalisierter Preisgestaltung, Gesichtserkennung bei Smartphones uvm. Weitere oft erwähnte Beispiele aus jüngerer Zeit:
• Computerkunst: KI kann Musik komponieren, Gedichte schreiben und Bilder malen – kürzlich wurde ein von KI generiertes Porträt („Edmond de Belamy“) um USD 400.000,- versteigert; vgl auch nextrembrandt.com: ein Programm wurde mit Bildern von Rembrandt und den Charakteristika seiner Maltechnik trainiert und produzierte so ein Porträt, das von Experten als typischer für Rembrandt angesehen wird als seine eigenen Gemälde.
• Digital Life Prediction: Durch Berücksichtigung einer Vielzahl an Faktoren und Abgleich mit ebensolchen von Millionen oder Milliarden anderer (verstorbener) Menschen kann eine relativ präzise Lebens- oder Ablebenserwartung prognostiziert werden, was zB in der Versicherungswirtschaft, bei Triagen und vielen anderen Fällen eine Rolle spielen kann (iZm mit dem Projekt „RESPECT“ in Kanada bereits im Einsatz).
• ChatGPT: Chatbot mit Dialogsystem, das auf Machine Learning beruht und nach Eingabe entsprechender Vorgaben („Prompts“) komplexe Texte generieren kann.
Manche warnen vor solchen Anwendungen (zu ChatGPT s unten) oder ganz generell vor den Gefahren Künstlicher Intelligenz (zB Stephen Hawking, Elon Musk), weil es dadurch zu einer Machtübernahme gegenüber der Menschheit kommen könne (sog „Takeover“). Dies ist zwar theoretisch denkbar, weil Programme aus dem Internet den Schluss ziehen könnten, dass es oft besser war oder gewesen wäre, menschliche Befehle (nichts anderes sind Algorithmen, die in Programmen verwendet werden) nicht zu befolgen. Überdies kann das Internet infolge seiner dezentralen Kommunikationsarchitektur nicht „abgeschaltet“ werden, und durch das Internet of Things – bzw noch mehr durch zukünftige Quantencomputer, die nicht nur in binären 0/1-Kategorien, sondern mit sog QuBits auch überall „dazwischen“ agieren – kann sich diese Gefahr potenzieren. Dennoch ist dies eher abstrakt und kaum im Sinne einer totalen Übernahme, sondern nur partiell vorstellbar. Naheliegender sind andere Gefahren, etwa
• Diskriminierungen, weil KI bestehende Tendenzen und Vorurteile übernimmt; vgl instruktiv zB das von KI generierte Video zu Michael Jacksons „Billie Jean“ (YouTube: „billie jean ai generated“), das iZm mit der Textzeile „mother always told me“ eine Frau mit Kind in der Küche zeigt. Da Unterhaltungsvideos vom Artificial Intelligence Act (AIA) nicht erfasst sein werden (s unten), muss solchen und ähnlichen Stereotypen durch entsprechende Programmierung und möglichst diverse Lernvorlagen begegnet werden. Sehr wohl vom AIA betroffen sind hingegen zB Fälle, bei denen es durch den Einsatz von KI zur Bekämpfung von Straftaten zu Diskriminierungen kommt – etwa wenn Angehörige bestimmter Staaten oder Personen mit bestimmter Hautfarbe statistisch häufiger strafbare Handlungen begehen.
• Verdrängung von Menschen, die sich va daraus ergeben wird, dass KI wesentlich günstiger und schneller arbeiten kann. Allerdings bringt die Entwicklung auch neue Berufsbilder mit sich, zB „KI-Flüsterer“, die KI so „zureden“ bzw sie durch entsprechende Eingaben so anwenden, dass sie optimal arbeitet.
• Letzteres ist auch deshalb wichtig, weil eine weitere Gefahr sich selbst weiterentwickelnder KI darin besteht, dass oft sogar ihre Entwickler (Programmierer) nicht wissen, wie sie zu bestimmten Ergebnissen gelangt („Blackbox“), und dass sie oft Ergebnisse produziert, die nicht auf Fakten beruhen, sondern (weil die KI keine solchen gefunden hat) einfach von ihr „erfunden“ werden (idZ „Halluzinieren“ genannt, vgl dazu den aktuellen Fall eines Anwalts in New York, der ChatGPT beauftragte, einschlägige Präzedenzfälle zu finden, und diese sodann von ChatGPT „erfunden“ wurden). Solchen Risiken kann, vor allem, wo es um Gefahren für Freiheit, Leib oder Leben geht, durch die kontrollierende Einbettung von Menschen in entsprechende Entscheidungsprozesse begegnet werden („human in the loop“, s dazu unten).
• Auch in Bezug auf ChatGPT und ähnliche Programme wird vor diesen Gefahren, aber auch speziell vor Verwerfungen im Schul- und Bildungswesen gewarnt. Schüler oder Studierende würden Haus- oder Diplomarbeiten und Dissertationen nicht mehr selbst erstellen, sondern (wie kürzlich ein kolumbianischer Richter sein Urteil) von solchen Programmen verfassen lassen (vgl dazu auch die Ergebnisse der Verwendung von ChatGPT zur Erstellung von Hausarbeiten: https://zivilrecht.univie.ac.at/team/zankl-wolfgang/aktuelles/). Diesem Einwand kann freilich durch die Verwendung entsprechender Erkennungsprogramme und durch den Hinweis darauf begegnet werden, dass sich bisheriges Faktenwissen (das gegoogelt werden kann) zunehmend in Richtung Nutzungswissen entwickelt (wie, wo und wodurch macht man sich die Vorteile der Digitalisierung und speziell von KI am besten zu Nutzen – dies setzt aber iZm mit fachlichen Texten idR bereits ein gewisses Fachwissen voraus, mit dem zB auch KI-Fehler erkannt werden können).
Rechtlich bestehen derzeit (2023) noch keine umfassenden Spezialregeln (vgl aber einzelne Bestimmungen wie zB Art 13/2/f und 15/1/h DSGVO bezüglich Informations- und Auskunftspflichten bei automatisierter Entscheidungsfindung und Art 22 DSGVO bezüglich des Rechts, einer solchen zu widersprechen bzw diese menschlich überprüfen zu lassen, sowie § 89e GOG, der eine – auch auf KI anwendbare – Gefährdungsamtshaftung des Bundes für Schäden anordnet, die durch den Einsatz von IKT aus der Führung gerichtlicher Geschäfte entstanden sind), so dass mit allgemeinen Bestimmungen das Auslangen gefunden werden muss, zivilrechtlich zB mit der verschuldensunabhängigen Haftung des EKHG bei Unfällen selbstfahrender Autos, die durch mangelhafte KI verursacht werden (vgl § 9 EKHG: „Fehler in der Beschaffenheit“). Die Gefährdungshaftung des PHG kommt nicht ohne weiteres zum Tragen, weil Software keine bewegliche körperliche Sache iSd § 4 PHG ist, wenn Personen- oder Sachschäden ohne menschliches Zutun unmittelbar durch fehlerhafte Programme verursacht werden; § 8 PHG, wonach keine Haftung besteht, wenn der Fehler nicht erkennbar war, ist aber auf KI unanwendbar, wenn der Fehler infolge selbständiger Weiterentwicklung eingetreten ist – dies begründet eine Gefährlichkeit iSd § 5 PHG). Weiters wird in der Lehre die analoge Anwendung der Gehilfenzurechnung nach § 1313a ABGB für von KI verursachte Schäden diskutiert.
Urheberrechtlich ist jene Person als berechtigt anzusehen, welche die entsprechende Software programmiert bzw von deren Entwickler zur Verfügung gestellt bekommen hat, um damit Texte (zB ChatGPT), Musik, Bilder oä zu generieren (str). Dass das dadurch geschaffene Werk infolge der Lernfähigkeit von KI uU nicht mehr unmittelbar auf eine Schöpfung dieser Person zurückzuführen ist, ändert daran nichts, weil mit der Programmierung immerhin die Voraussetzungen für die Entstehung geschaffen wurden und daraus ergebende Beliebigkeiten auch bei „humanoider“ Kunst nichts an der Urheberschaft des Menschen ändern, der diese Zufälle gezielt eingesetzt hat (zB Schüttbilder von Nitsch).
Die EU-Kommission hat die Entwürfe zweier Rechtsakte vorgelegt: einer Verordnung („Artificial Intelligence Act“) und einer Richtlinie („über KI-Haftung“).
Der derzeit im Trilog befindliche Entwurf des Artificial Intelligence Acts beruht auf einem risikobasierten Ansatz:
• Unannehmbare Risken, zB biometrische Fernidentifizierungssysteme oder (behördliches) Social Scoring sind untersagt.
• Hohe Risken, zB bei gefährlicher Infrastruktur im Verkehr oder in der Medizin, bei Einstellungsverfahren, Bewertung von Kreditwürdigkeit, Rechtspflege, Strafverfolgung ua unterliegen strengen Regelungen – zB Transparenz und menschliche Aufsicht („human in the loop“). Daher dürfen Triagen nicht direkt von Programmen durchgeführt, sondern deren Ergebnisse nur als Entscheidungsgrundlagen für Ärzte herangezogen werden; ebenso wären Programme in selbstfahrenden Autos, die ohne menschliches Zutun entscheiden, ob sie bei unvermeidbaren Unfällen zB eher Jüngere als Ältere „schonen“ (sog „Trolley-Dilemma“) grundrechtlich problematisch.
• Geringe Risken, zB bei Chatbots, erfordert nur Transparenz – Menschen müssen wissen, mit wem sie es „zu tun haben“.
• Minimale Risken, zB Videospiele, bleiben unreguliert
Der Entwurf einer Richtlinie über KI-Haftung betrifft nur die deliktische (außervertragliche) bereits nach nationalem Recht bestehende verschuldensabhängige Haftung und sieht eine Kausalitätsvermutung undBeweiserleichterung Geschädigter vor.
Die Schwierigkeit dieser – und noch umfangreich bevorstehender – Regulierung Künstlicher Intelligenz besteht darin, dass so gut wie sämtliche Geschäfts- und Lebensbereiche davon betroffen sind und es bei letzteren auch um Grundfragen der menschlichen Existenz geht (Conditio Humana), wenn geregelt wird, ob und inwieweit der Mensch von Künstlicher Intelligenz umgeben, abhängig und uU sogar beherrschbar sein soll. Die Problematik zeigt sich zB daran, dass eine Entschließung des EU-Parlaments Programmen bzw Robotern mit „fortgeschrittener“ Künstlicher Intelligenz Rechtspersönlichkeit verleihen wollte (vgl YouTube: Zankl, „Künstliche Intelligenz rockt die Welt“).
Autor: Wolfgang Zankl | www.zankl.at
Geboren am 9. September 1959 in Wien, aufgewachsen in Deutschland, USA, Spanien und Österreich (Matura 1978 am Theresianum in Wien), ist Professor und stv. Vorstand des Instituts für Zivilrecht der Universität Wien, war Dekan an der Universität in Liechtenstein (UFL), Professor am Institut für Zivilrecht der Universität Graz, Lehrbeauftragter der Universität Leipzig sowie der Quadriga Hochschule Berlin, und leitet das von ihm gegründete europäische zentrum für e-commerce und internetrecht, das weltweite Netzwerk für IT-Recht mit zahlreichen Partnerunternehmen, Beiräten auf allen Kontinenten und Repräsentanzen in Berlin, Brüssel, Hongkong, London, New York und Wien (www.e-center.eu). Er ist Leiter der Jahrestagung Internetrecht und des Zertifikatslehrgangs Digital Legal Expert sowie internationaler Direktor des Institute for Artificial Intelligence Law der Tianjin University, Foundation Member der Hong Kong Computer Ethics Society, Contributor to Machine Lawyering at Chinese University of Hong Kong, Mitgründer und Geschäftsführer des Data Trust Center (www.data-trust-center.com), Beiratsvorsitzender des ky-center for social media law sowie Gutachter, Studienbeauftragter und Berater von Regierungen, Rechtsanwaltskanzleien, Kammern und Unternehmen (zuletzt va führende IT-Konzerne/USA). Zankl hat im Bereich des Zivilrechts (Schwerpunkte Vertrags- und Haftungsrecht, Erbrecht) und des IT-Rechts (Schwerpunkte E-Commerce, Data Privacy, Künstliche Intelligenz) 20 Bücher und ca 300 weitere Fachpublikationen auf Deutsch, Englisch, Französisch und Spanisch verfasst und herausgegeben sowie in diesen Sprachen Lehrveranstaltungen und Vorträge auf allen Kontinenten gehalten, ua in Boston (Harvard), Casablanca, Dubai, Frankfurt, Hongkong, Jerusalem, London, Moskau, Peking, Santiago de Chile, Singapur, Sydney, Tokio und Zürich. Zankl hat ferner verschiedene Internetdienste entwickelt, darunter eine der ersten österreichischen E-Learning-Plattformen, zivilrechtliche Updates auf Facebook und Twitter (Zankl.update) sowie die erste juristische Crowd-Intelligence-Plattform www.checkmycase.com. Er ist Marathon-, Arktis- und Antarktisläufer (www.arctic-antarctic.at), Skipper (Segeltörns zB Indischer Ozean, Atlantik/Karibik) und Motorradtourenfahrer (zB Amazonas, Australien, Hawaii, Russland, Tobago) und tritt für Informations- und Transaktionsfreiheit ein („freedom of exchange of information, said Wolfgang Zankl“, New York Times).