Wie viel Staat braucht KI?

15.12.2021
Gerd Muck

Was braucht die Gesellschaft für die digitalen Herausforderungen von Künstlicher Intelligenz? Wie viel Sicherheit, wie viele Regularien, wie viel Freiheit?

Intelligenz definieren? Bis heute gibt es keine einheitliche Definition. Wann jemand intelligent ist, da sind sich Forscher, Politiker und die Leute am Stammtisch uneinig. Ob jemand intelligent ist, ist von außen schwer zu sehen. Der IQ-Test misst Intelligenz. Aber auch er stellt nur einen Normwert auf. Er hat Aussagekraft im Vergleich zu allen anderen getesteten Personen, denen dieselben Fragen im selben Umfeld gestellt wurden. Es bleiben Fragen offen, ob jemand intelligent ist, wenn er nur die eine technische Begabung hat oder nur musisch talentiert ist und in sprachlicher, emotionaler, sozialer Hinsicht nicht die hellste Kerze auf der Torte ist.

 Nun sind wir in der glücklichen Lage, dass wir in diesem Artikel Intelligenz nicht definieren müssen. Der Gedankengang soll uns bloß als Blaupause, als ständig durchscheinendes Denkraster stehen, vor der folgenden Diskussion, die auf der 25-Jahrfeier des ASQF e. V. über Künstliche Intelligenz und mit ihren ethischen Implikationen geführt wurde. Es diskutieren  Prof.  Dr.-Ing.  Ina  Schieferdecker als Mittlerin zwischen Wissenschaft und Politik, Prof. Dr. Christoph Meinel vom Hasso-Plattner-Institut, Ralf Neubert von Schneider Electric für die freie Wirtschaft und Stephan Goericke, CEO von iSQI und vormals langjähriger Geschäftsführer des ASQF.

Die Schwierigkeiten, die wir mit KI haben, entspringen dem Definitionsproblem, das wir mit Intelligenz im Allgemeinen haben. Wie sollen Regeln aufgestellt werden, wenn nicht klar ist, was wir eigentlich regeln müssen? Es ist eine Frage der Ethik, also der Sittlichkeit, und des „guten Tons“, zu definieren, was richtig ist. Was erwarten wir von KI und was wollen und können wir mit ihr machen? Im ersten Schritt versucht sich die normale Gesellschaft gegen die Gefahren der KI abzusichern. Es werden Leitlinien erstellt, die den Umgang mit KI regeln. Das Unternehmen Bosch macht das z. B. mit einem KI-Kodex, die EU mit ihrer Europäischen Charta der Grundrechte. Es zeichnet sich ab, dass eigentlich nicht KI Risiken bringt, sondern der Umgang mit ihr – die Angst, die wir vor KI haben, ist Angst davor, was Menschen mit KI machen könnten. Deshalb ist es wichtig, bevor wir KI in der Welt freilassen, die Regeln zu definieren, wie wir das tun wollen. In der Europäischen Charta der Grundrechte wird das für Europa skizziert. Würde, Freiheit, Gleichheit, Solidarität, Bürgerrechte und justizielle Rechte. Beim Einsatz von KI für beispielsweise Prävention und Diagnose von Krankheiten oder bei der Pflege müssen Persönlichkeitsrechte abgewogen werden, nicht nur Haftungsfragen. KI benötigt große Datenmengen, die nicht ohne Achtung der Privatsphäre gesammelt werden dürfen. Wenn Algorithmen Entscheidungen treffen, dürfen sie Menschen nicht diskriminieren. Schon gar nicht was Bürgerrechte betrifft, bei Wahlen und Erhöhung von Effizienz besteht die Gefahr von Verzerrungen.

„Es kann nicht sein, dass wir – wie im Moment – diesen Bereich im Wesentlichen der Wirtschaft überlassen. Denn so entscheidet am Ende der Entwickler darüber, welches ethische Verhalten etwa ein autonomes System unter Nutzung der künstlichen Intelligenz an den Tag legt“, so zitiert Stephan Goericke die Vordenkerin Ina Schieferdecker und konfrontiert sie mit der Frage, ob die Politik auf diese komplexen Zusammenhänge gut vorbereitet ist. Welche Werkzeuge haben wir in Deutschland zur Hand und welche werden genutzt?

Der rechtliche Rahmen sei sicher ein Instrument, doch bei Weitem nicht das einzige. Viele Faktoren spielten eine Rolle, sagt Schieferdecker. Auf jeden Fall sei Bildung ein entscheidender Aspekt, um ein Verständnis zu schaffen, worauf es ankommt bei der Umsetzung von KI-basierten Systemen. Leitlinien seien das eine, die Menschen, die sie anwenden, das andere und an dritter Stelle stünden Gremien, die kontrollieren, dass ethische Leitlinien umgesetzt werden, so Schieferdecker.

Die Wirtschaft ist in Deutschland klarer Treiber der Entwicklung von KI. Das zeigt überdeutlich der KI-Monitor 2021, der vom Bundesverband Digitale Wirtschaft veröffentlicht wird. Als Blockade für eine bessere Entwicklung nennt der Bericht unter anderem bürokratische Hürden  beim  Ausbau der Infrastruktur und Rechtssicherheit im Umgang mit Daten: „Der Staat sollte eine Vorreiterrolle beim Einsatz von KI in Deutschland einnehmen. Durch staatliche Nachfrage können Potenziale in der Verwaltung gehoben und Märkte für die Entwicklung von KI eröffnet werden.“ Oberflächlich betrachtet, klingt das nach einer Schere, die auseinander klafft: einerseits der Ruf nach weniger Regeln, andererseits nach mehr Verwaltung!

„Letzten Endes sind es die Unternehmen, die Technologien in die Welt tragen“, sagt Ralf Neubert und argumentiert aus der Perspektive der Wirtschaft. Für internationalen Austausch benötige die Wirtschaft dringend klare Rahmenbedingungen und Abstimmungen. „Nicht nur die  Wirtschaft entscheidet, sondern auch Politik  und  Forschung, die Einflüsse hat und haben muss.“ Es ginge nicht nur darum mitzumachen, sondern auch darum, wie aus Deutschland heraus die Entwicklungen beeinflusst werden könnten. Deutschland sei ein kleines Rad im großen Getriebe der Welt, könne aber eine sehr wichtige Rolle spielen, die Werte für Ethik zu definieren, die mit den anderen Ländern und Industrien getragen werden könnten, so Neubert.

Etwas skeptischer, was die Situation in Deutschland geht, ist Christoph Meinel. Er weist immer wieder auf die Gefahren einer starken technischen Abhängigkeit hin und macht deutlich, dass wir in Europa unsere Werte nur leben können, wenn wir die Hoheit über die digitalen Systeme auch besitzen. Stephan Goericke hakt nach und fragt: „Haben wir in Deutschland den Anschluss nicht längst verpasst?“

„Das ist als Weckruf gemeint. Wir neigen in Deutschland dazu, zuerst grundsätzlich zu diskutieren“, relativiert Meinel die Aussage. Andere hätten in der Zeit, in der Deutschland diskutiert, Systeme gebaut und sie diskutierten jetzt auf der Basis eben dieser Systeme. Uns bliebe dann nur noch die Möglichkeit diese Systeme zu kaufen, in denen Maßstäbe der anderen steckten. Auch widersprächen die Ergebnisse
von Diskussionen oft den tatsächlich nötigen Bedingungen. Ein Beispiel sei das europäische Datenschutzgesetz. Darin geschrieben ist eine Klausel, die heißt Zweckbestimmung: Bevor Daten gesammelt werden dürfen, muss demjenigen, der die Daten zur Verfügung stellt, gesagt werden, wofür die Daten genutzt werden. KI-basierte Maschinen machten Vorschläge für Hypothesen und Lösungsansätze. Das heißt, es ist vorher nicht bekannt, was mit den Daten letztlich gemacht wird Damit verbieten wir uns von vorneherein die Nutzung von Daten, auf die lernende Maschinen angewiesen sind.

„Aber die Skepsis ist doch berechtigt, weil wir nicht den Überblick darüber haben können, was mit unseren Daten passiert“, sagt Goericke und lenkt das Gespräch zurück in die Verbraucherperspektive. Zuerst werde die Bevölkerung darauf sensibilisiert, wie wichtig der Schutz der eigenen Daten sei, um später festzustellen, dass diese Skepsis die Entwicklung blockiere.

Ina Schieferdecker sagt darauf, dass die Bedenken gegen unkontrollierte Datensammlung völlig verständlich seien. Was in der Theorie erarbeitet werde, sehe in der Praxis meist anders aus. Bei Neuentwicklungen sollte experimentell erprobt werden. Im geschützten Bereich des Experiments wüssten die Leute, worauf sie sich einlassen und worauf sie sich einlassen wollen. Doch nicht alle Daten, die von KI benötigt werden, seien personenbezogen. Bei vernetzten Produkten zum Beispiel, bei  Nachhaltigkeit  und bei neuen Ansätze in der Mobilität ginge es zu großen Teilen um nicht personenbezogene Daten. Auch dort gäbe es Schwierigkeiten, die Daten zu sammeln, weil die Regularien es verbieten. „Wir brauchen einen moderneren Ansatz. Wir brauchen ein Rahmenwerk rund um Daten. Es ist nicht zu spät. Das Rennen läuft noch, aber man muss sich jetzt in Bewegung setzen und die qualitativ hochwertigen Daten in Bewegung setzen“, sagt Ina Schieferdecker.

Stephan Goericke fragt nach: „Wenn alle sich einig sind, dass wir da mehr tun müssen, was muss denn jetzt noch passieren, damit der Knoten platzt?“

Anscheinend gibt es darauf keine eindeutige Antwort. Ralf Neubert gewinnt der Diskussionsfreudigkeit in  Deutschland etwas Positives ab. Dort wo andere Staaten vorpreschten und vielleicht Dinge in den Sand setzten, ginge Deutschland wohldurchdacht an Dinge  heran.  Insgesamt  stünde die Entwicklung zur KI noch am Anfang. Die Zeit schwände, aber die Qualität der Daten in Deutschland sei sehr gut.

„Alle verstehen das Problem und es bewegt sich nichts“, sagt Christoph Meinel. „Das Problem ist, wir haben in Deutschland den Status Quo so fest reguliert, dass jede Veränderung aus irgendeinem Grund nicht geht. Im medizinischen Bereich gingen Forscher nach New York, um für Digital Health arbeiten zu können. „In der Charite dürfen die Kliniken keine Daten austauschen.“ Die Erforschung von Viren, Nebenwirkungen usw. benötige jedoch Daten. „Es muss bei Innovationen irgendwann das Verständnis kommen, dass es nötig ist, sich ins Ungewisse zu begeben, weil man bei Innovationen nie im Vorne herein weiß, was hinterher rauskommt.“ Ob etwas geht oder nicht, bekomme man nur durch „Machen“ heraus, so Meinel. ■

Die gesamte Diskussion können Sie im ASQF-Kanal auf Youtube nachhören. Mehr zum 25-Jubiläums des ASQF gibt es hier.

0 Kommentare

Einen Kommentar abschicken

Bitte melden Sie sich an, um einen Kommentar zu hinterlassen.