Forschungsausschuss: Experten geben Auskunft zu KI bzw. ChatGPT

Antrag zu Open Source einstimmig angenommen

Generative künstliche Intelligenz (KI), also Programme wie ChatGPT, war heute Thema einer Aussprache im Ausschuss für Forschung, Innovation und Digitalisierung. Die Abgeordneten tauschten sich darüber mit dem stellvertretenden Leiter des Instituts für Technikfolgenabschätzung der Österreichischen Akademie der Wissenschaften (ÖAW) Walter Peissl, mit dem Professor für Technologie- und Immaterialgüterrecht an der Universität Wien Nikolaus Forgó sowie mit dem Medienphilosophen und Mitglied des Österreichischen Rats für Robotik und Künstliche Intelligenz Mark Coeckelbergh aus.

Ein gemeinsamer Entschließungsantrag von ÖVP, SPÖ, Grünen und NEOS betreffend Open-Source-Produkte zur Stärkung der digitalen Souveränität Österreichs wurde im Ausschuss einstimmig angenommen.

EXPERTEN NEHMEN STELLUNG ZU TECHNOLOGIE, RECHTSRAHMEN UND ETHISCHEN PROBLEMSTELLUNGEN VON KI

Zur „Einordnung des Hypes“ rund um generative KI wie ChatGPT legte Walter Peissl von der ÖAW eingangs einige technische Details dar. Die Mensch-Maschine-Schnittstelle ChatGPT funktioniere nach einem sogenannten Large Language Model (LLM): Es werden große Mengen an Text in das System eingelesen, das daraus eine Struktur erlernt. In einem zweiten Schritt finde eine Feinjustierung – überwiegend durchgeführt von Personen aus dem globalen Süden zu niedrigen Stundengehältern – statt, um etwa Hate Speech und Rassismus, den das System durch die aus dem Internet eingespeisten Daten erlernt hat, herauszufiltern. Bei der Erstellung von Texten arbeite ChatGPT nach einer Wortfolgestatistik. Es erlerne und berechne Wahrscheinlichkeiten, wie oft ein Wort nach einem anderen vorkomme, und generiere so Antworten, ohne Bedeutung oder Inhalt zu verstehen. ChatGPT liefere also auf die eingegebenen Fragen nicht die richtigen, sondern die aufgrund der Wortfolgestatistik wahrscheinlichsten Antworten, betonte Peissl. Das führe oft zu faktisch falschen Ergebnissen. Der Experte ortete weitere systembedingte und gesellschaftsbezogene Probleme im Zusammenhang mit generativer KI, etwa die Nutzung personenbezogener Daten an der DSGVO vorbei, eine Voreingenommenheit in den Antworten und die Tatsache, dass auch Expert:innen nicht genau wissen, wie die Modelle arbeiten.

Der Jurist Nikolaus Forgó ging auf die geplante Regulierung von KI auf europäischer Ebene ein. In Europa, insbesondere in Österreich und Deutschland, gebe es eine große Skepsis gegenüber künstlicher Intelligenz. Aus Forgós Sicht begebe man sich nicht zuletzt durch den geplanten Artificial Intelligence Act in eine „legislative Überschuldung“: Es gebe immer mehr Regulierung in einem Bereich, in dem man immer weniger mit der Durchsetzung zu Rande komme. Die Technologie sei stark amerikanisch und chinesisch geprägt und verzeichne ein überexponentielles Wachstum. Die „traditionell regulatorische“ Reaktion Europas habe jedoch keine Auswirkungen auf dieses Wachstum. Forgó kritisierte zudem, dass es viele Unklarheiten beim Artificial Intelligence Act gebe, allen voran, was eigentlich alles darunter falle. Aus seiner Sicht sei das Parlament gefordert, klarzustellen, was genau wie und warum nationalstaatlich geregelt werden soll, und wie die österreichische Position in den Verhandlungen auf EU-Ebene aussieht. „Wenn Österreich oder Europa aufholen will, muss es schneller laufen als die, die schon in Führung sind“, forderte der Experte mehr Tempo ein.

Medienphilosoph Mark Coeckelbergh thematisierte insbesondere die ethischen Herausforderungen im Zusammenhang mit KI, wobei er eine generelle Verteufelung der Technologie als nicht hilfreich bezeichnete. Vielmehr gelte es, konkrete ethische Probleme zu benennen, etwa mit Blick auf Plagiate oder Urheberrechte. Es fehle die Transparenz, weil die Trainingsdaten der Systeme in den meisten Fällen nicht offengelegt würden. Desinformation, Diskriminierung und Voreingenommenheit, aber auch Datenschutz und Datensicherheit seien weitere Probleme. Auch die potenzielle Manipulation stelle eine große Herausforderung dar. Coeckelbergh nannte ein Beispiel aus Belgien, in dem ein Chatbot einen Benutzer dazu ermutigt hat, Suizid zu begehen. Insbesondere dieser Bereich sei sehr schwierig zu regulieren, so der Experte. Aus seiner Sicht gelte es daher vorranging, die Nutzer:innen dabei zu unterstützen, mit der neuen Technologie umzugehen. Dafür brauche es Bildung und mehr Aufmerksamkeit für Risiken. Auch auf universitärer Ebene und in der Forschung brauche es größere Anstrengungen.

ABGEORDNETE THEMATISIEREN PROBLEME UND CHANCEN VON KI

Die Themen Transparenz, Kompetenzaufbau und Forschung standen im Mittelpunkt der Fragen vieler Abgeordneter. So warfen etwa Eva-Maria Himmelbauer (ÖVP) und Gerhard Deimek (FPÖ) die Frage auf, inwieweit Transparenz und Kennzeichnung von KI-generierten Inhalten auf technischer Seite geschaffen werden kann und muss, damit die User:innen informiert sind. Für Walter Peissl braucht es dafür einerseits kompetente Nutzer:innen, die erkennen können, dass sie mit einer KI interagieren. Es sei aber auch ein rechtlicher Rahmen notwendig, denn man könne nicht von den Enduser:innen erwarten, alle technischen Kompetenzen aufzubauen. Von Helmut Brandstätter (NEOS) auf eine mögliche Kennzeichnung und Überprüfung von KI-Inhalten angesprochen, legte der Experte dar, dass die Bemühungen derzeit in Richtung verpflichtende Kennzeichnung – etwa in Form eines Wasserzeichens – gehen. Dieses könne von Maschinen lesbar sein, was es ermöglichen würde, durch andere Systeme zu überprüfen, ob ein Inhalt „echt“ oder von einer künstlichen Intelligenz geschaffen sei.

Michel Reimon (Grüne) warf zudem die Problematik auf, dass es bei Systemen wie ChatGPT keinen Einblick in den Code des Modells gebe. Es sei tatsächlich ein fundamentales Problem, dass es sich bei bestimmten Deep-Learning-Systemen gewissermaßen um Black Boxes handle, sagte Walter Peissl. Man verstehe zwar, wie man sie aufbaut, könne aber die Ergebnisse nicht vorhersehen. Er sprach sich daher für Vorsicht aus, derartige Systeme in essenziellen Bereichen einzusetzen, wenn man nicht vorhersehen könne, welche Ergebnisse sie produzieren. Peissl warnte insbesondere vor einem Einsatz etwa in der Zuordnung von Sozialleistungen. Die öffentliche Hand müsse besondere Vorsicht walten lassen, auch wenn das heiße, „nicht sofort vorne mit dabei“ zu sein.

Unter dem Stichwort „KI-Fitness“ diskutierten die Abgeordneten mit den Experten zudem über Akzeptanz und Kompetenz der User:innen. Von Eva-Maria Himmelbauer und Joachim Schnabel (beide ÖVP) und Katharina Kucharowits (SPÖ) darauf angesprochen, zeigte sich Peissl überzeugt, dass es die Förderung von kritischer Medienkompetenz brauche. Zudem müsse man einen möglichst breiten Diskurs über die ethischen Herausforderungen führen, auch wenn das die Geschwindigkeit der Einbindung von künstlicher Intelligenz möglicherweise bremse. Mark Coeckelbergh betonte in diesem Zusammenhang einmal mehr die Bedeutung von Bildung und Wissenschaft. Es brauche mehr Forschung, insbesondere Grundlagenforschung. Dabei gelte es, auch andere wissenschaftliche Disziplinen wie die Human- und die Sozialwissenschaft einzubinden. Dass es mehr Mittel für Forschung brauche, unterstrichen auch Walter Peissl und Nikolaus Forgó. Österreich und Europa müsse wissenschaftlich so schnell wie möglich so wettbewerbsfähig wie möglich werden, meinte Forgó.

Nach der europäischen Konkurrenzfähigkeit im Bereich der Technologieunternehmen erkundigte sich Joachim Schnabel. Europa habe bereits jetzt einen „ungeheuren Startnachteil“, sagte Forgó. Beim Ansammeln von Datenmengen sei man etwa 25 Jahre im Rückstand zu anderen Ländern. Von Schnabel nach einer möglichen Vorreiterrolle Europas im Bereich der Regulierung von KI gefragt, zeigte sich der Experte wenig optimistisch. Bereits im Bereich des Datenschutzes habe es mit der DSGVO diese Hoffnung gegeben. Obwohl zwar einige Regelungen von anderen Bereichen der Welt übernommen worden seien, sei dies bei zentralen Ansprüchen nicht gelungen, so Forgó.

STAATSSEKRETÄR TURSKY ZUR ÖSTERREICHISCHEN STRATEGIE

Digitalisierungsstaatssekretär Florian Tursky legte dar, wie eine Regulierung von künstlicher Intelligenz in Österreich aussehen solle. Es sei zentral, dass diese schnell auszuarbeiten ist. Die EU sei mit dem Artificial Intelligence Act „nicht schlecht aufgestellt“, wenngleich dieser noch nicht perfekt sei. Österreich müsse sich schnell an die nationale Umsetzung machen.

Die Koordinierung der Regulierung von KI liege nunmehr jedenfalls bei ihm, sagte Tursky im Rahmen der anschließenden Debatte. Österreich sei das erste Land in Europa, das eine Regulierung in diesem Bereich vornehme, meinte er etwa in Richtung von Maria Theresia Niss (ÖVP). Eine KI-Behörde soll bereits jetzt eingeführt werden, mit Servicecharakter, um Bürger:innen und Unternehmen vorzubereiten. Gesammelt werden sollen dort etwa alle Institutionen, die eine KI-Zertifizierung machen. Geplant sei auch ein österreichisches Gütesiegel für KI. Entscheidend ist aus Sicht von Tursky auch eine Transparenzverpflichtung, wenn man mit KI konfrontiert sei. Gegenüber Nikolaus Forgó räumte er ein, dass die Interaktion zwischen den Behörden in diesem Bereich eine große Herausforderung darstelle. Was ethische Fragen betrifft, die etwa Süleyman Zorba (Grüne) aufwarf, sei die Antwort darauf der digitale Humanismus, mit dem kein anderes Land so stark verbunden sei wie Österreich.

Als elementar bezeichnete Tursky zudem den Aufbau digitaler Kompetenzen, insbesondere mit Blick auf Fake News und die Frage der Vertrauenswürdigkeit. Die Akzeptanz von KI in der Gesellschaft werde zudem nur gelingen, wenn die bestmögliche Transparenz gewährleistet sei. Bürger:innen müssten bei jedem Kontakt mit KI-Systemen darüber informiert werden, nicht nur bei Anwendungen der öffentlichen Hand. Tursky kündigte an, die KI-Strategie des Bundes bis zum Frühjahr des kommenden Jahres überarbeiten zu wollen. Beim Aufbau von Forschungskapazitäten plädierte Tursky für europäische Lösungen abseits vom „schnöden Geldausgeben“.

DEBATTE ÜBER EINSATZ VON KI VON MEDIZIN BIS MILITÄR

Den Einsatz von künstlicher Intelligenz thematisierten die Abgeordneten für weitere unterschiedliche Punkte. Etwa im Bereich Medizin, den Werner Saxinger (ÖVP) und Petra Oberrauner (SPÖ) aufwarfen, sehe er „unglaubliche Chancen“, die es zu nützen gelte, so Tursky. Walter Peissl ortete sehr unterschiedliche Gefährdungspotenziale und erachtete einen weiten Blick für wichtig. In der Medizin könne KI teils große Hilfe leisten. Wichtig ist aus Peissls Sicht aber, dass KI immer „supportiv und nicht substitutiv“ verwendet wird und die Verantwortung beim Menschen bleibt.

Was den militärischen Bereich betrifft, brauche es betreffend KI jedenfalls eine Regelung auf nationalstaatlicher Ebene, räumte Tursky etwa gegenüber Süleyman Zorba (Grüne) ein. Er sei dazu im Austausch mit dem Verteidigungsministerium. Zudem bringe sich Österreich dazu intensiv auf EU-Ebene ein, da es auch länderübergreifend Regelungen für militärische Anwendungen brauche. Aus Sicht von Nikolaus Forgó ist die allgemeine KI-Regulierung für militärische Zusammenhänge nicht anwendbar. Es brauche hier intensive Diskussionen.

Die größte Herausforderung sieht Tursky aber in den Umwälzungen am Arbeitsmarkt, die etwa Oberrauner thematisierte. Aus seiner Sicht werden die Arbeitsplätze nicht weniger, die Anforderungen werden sich aber verändern. Aufgebaut werde etwa ein Fördertool für KI-Fachkräfte. Eine „Riesenaufgabe“ werde auch die Frage, wie es zur Requalifizierung im Wandel kommen kann. Auch Walter Peissl erachtet die Transformation als große Herausforderung für die Gesellschaft und für unterschiedlichste Berufsgruppen wie beispielsweise auch im Journalismus bzw. bei textbasierter Arbeit. Lobbying als demokratiepolitisches Problem könne durch die Texterstellungsmöglichkeiten zunehmen, räumte er gegenüber Ausschussvorsitzendem Christian Hafenecker (FPÖ) ein.

Zum Thema Return of investment aus der Forschung gebe es kontroverse Diskussionen zu einer Art KI-Steuer, so Mark Coeckelbergh. Am Beispiel China sei zu erkennen, dass Überwachung durch KI mehr Möglichkeiten bekomme und es hier Limitierungen für den Staat brauche, so Coeckelbergh auf Fragen der Abgeordneten.

OPEN-SOURCE-PRODUKTE ZUR STÄRKUNG DER DIGITALEN SOUVERÄNITÄT ÖSTERREICHS

ÖVP, SPÖ, Grüne und NEOS weisen gemeinsam auf die potenziellen Probleme für die österreichische Souveränität hin, die sich im Krisenfall aus einer zu starken digitalen Abhängigkeit von einzelnen Staaten, Regionen oder Unternehmen ergeben könnten. In einem Entschließungsantrag wenden sich die vier Fraktionen an die Bundesregierung mit dem Ersuchen, zu analysieren, inwieweit der flexiblere und vermehrte Einsatz von Open-Source-Produkten zur Stärkung der digitalen Souveränität Österreichs beitragen kann (3407/A(E)). Der Antrag wurde im Ausschuss einstimmig angenommen.

Im Detail sprechen sich die Abgeordneten für eine Evaluierung der geschäftskritischen IT-Verfahren des Bundes in Bezug auf die digitale Souveränität aus. Dabei sei insbesondere auch zu untersuchen, ob und wie weit die eingesetzten Software-Produkte kurz- bzw. mittelfristig durch Open-Source-Software (OSS) substituiert werden könnten. Weiters gilt es laut den Abgeordneten, einen Open-Source-Katalog der Bundesverwaltung zu erstellen, der für eine bessere Übersicht sowie den notwendigen Austausch für einen breiteren Einsatz von OSS sorgen kann. Außerdem solle die Bundesregierung evaluieren, inwieweit Open-Software-Produkte im Bereich Bildung und Lehre verstärkt eingesetzt werden können.

Der gemeinsame Antrag sei ein erster Schritt zur Evaluierung und um Potenziale aufzuzeigen und fuße auf einem Vorschlag der SPÖ mit dem Grundgedanken, Open Source zu forcieren, meinte Eva Maria Himmelbauer (ÖVP). Süleyman Zorba (Grüne) sieht den Antrag auch in Zusammenhang mit dem Thema KI. Petra Oberrauner (SPÖ) würde darüber hinaus gern Open Source in der Bildung als klares Ziel vorgeben. Gerhard Deimek (FPÖ) begrüßt den Antrag grundsätzlich, kann aber nicht nachvollziehen, warum sich die Regierungsparteien in dieser Form selbst einen „Auftrag“ geben.

Staatssekretär Tursky räumte gegenüber Helmut Brandstätter (NEOS) betreffend die Lizenzkosten für Microsoft-Produkte ein, dass es schon länger Bestrebungen für eine gesammelte Bundeslizenz gebe. Was den vorliegenden Antrag betrifft, wolle man rasch in Umsetzung kommen, so Tursky. (Schluss Forschungsausschuss) kar/mbu

————————-

Pressedienst der Parlamentsdirektion
Parlamentskorrespondenz
Tel. +43 1 40110/2272
pressedienst@parlament.gv.at
http://www.parlament.gv.at
www.facebook.com/OeParl
www.twitter.com/oeparl

OTS-ORIGINALTEXT PRESSEAUSSENDUNG UNTER AUSSCHLIESSLICHER INHALTLICHER VERANTWORTUNG DES AUSSENDERS. www.ots.at
© Copyright APA-OTS Originaltext-Service GmbH und der jeweilige Aussender