Die aktuellen, bahnbrechenden Entwicklungen im Bereich der künstlichen Intelligenz (ChatGPT) und die schnelle, noch vor kurzem nicht für möglich gehaltene Geschwindigkeit des Fortschritts in diesem Bereich führt derzeit zu der Debatte, ob und wie KI reguliert werden muss. Selbst der CEO von OpenAI, Sam Altmann, gibt zu Protokoll, dass es für künstliche Intelligenz eine Regulierung geben sollte. Die EU plant bereits seit längerem eine Richtlinie zur künstlichen Intelligenz, den Artificial Intelligence Act, der jedoch unter anderem deswegen ins Stocken geraten ist, weil die Realität die (geplante) Gesetzgebung überholt hat und deswegen Anpassungen noch vor der erstmaligen Verabschiedung notwendig sind. Und weltweit führende Forscher und Unternehmer wie Elon Musk und Steve Wozniak forderten unlängst in einem offenen Brief, die Weiterentwicklung von KI im Rahmen eines sechsmonatigen Moratoriums zu pausieren, um über Regulierung und Grenzen der KI zu diskutieren. Gefühlt stehen wir also kurz vor der Entwicklung einer künstlichen Intelligenz, die menschenähnlich ist oder den Menschen sogar übertreffen könnte, einer sogenannten „Artificial General Intelligence“ (AGI).
Gleichzeitig trifft man auf vielen Webseiten noch sogenannte „Captchas“ an, mit denen man nachweisen soll, dass ein echter Mensch vor dem Bildschirm sitzt und nicht ein Bot. Die Aufgaben, die dabei beispielsweise gelöst werden sollen: „Markieren Sie alle Puzzleteile, die eine Ampel zeigen“, „Markieren Sie alle Bilder, auf denen ein Schwan zu sehen ist“. Hmm… Einerseits steht künstliche Intelligenz also kurz davor, uns zu überflügeln und andererseits kann sie nicht erkennen, was eine Ampel ist…
Letzteres ist nicht nur ein Kuriosum: das Erkennen von Ampeln ist natürlich essentiell wenn es um die Entwicklung von selbstfahrenden Autos geht. Und in diesem Bereich, der schon recht lange gefühlt „vor dem Durchbruch steht“, lässt die Euphorie derzeit stark nach. Eigentlich sollte man erwarten, dass der Fortschritt in der KI-Entwicklung auch diesen Bereich beflügeln müsste. Das Gegenteil ist aber der Fall: wann ein Fahrzeug tatsächlich autonom fahren könnte („Stufe 5“) traut sich derzeit niemand zu prognostizieren. Denn die Aufgabe ist schwieriger als gedacht, insbesondere, weil die echte Welt niemals vollständig in einem Trainingsdatenset abgebildet werden kann. Und alles, was nicht in den Trainingsdaten enthalten war, führt aufgrund des Black-Box-Prinzips eines künstlichen neuronalen Netzes zu unvorhersehbaren Ergebnissen. Wenn ein Bildgenerator Menschen mit sechs Fingern erzeugt ist das ärgerlich und manchmal witzig. Wenn ein Auto eine Lkw-Plane nicht vom Horizont unterscheiden kann, ist das gefährlich.
Wo stehen wir also jetzt? Steht die Entwicklung einer dem Menschen ebenbürtigen künstlichen Intelligenz kurz bevor? Oder müssen wir noch zwanzig Jahre auf ein selbstfahrendes Auto warten? Es kann nicht beides gleichzeitig wahr sein…