So war die Lange Nacht der Wissenschaften 2023
Die Bilder des Abends
Eine ganze Nacht lang die Welt der Wissenschaft in der Metropolregion entdecken: Bereits zum elften Mal fand die Lange Nacht der Wissenschaften am Samstag, 21. Oktober, in Erlangen, Nürnberg und Fürth statt. Auch die FAU öffnete als größter Programmpartner an vielen Standorten ihre Türen: In mehr als 370 Programmpunkten zeigte die FAU, wie Wissenschaft die Zukunft gestaltet.
Live-Podcast mit Aya Jaff zu „KI und Ethik“
Für Ihren Podcast „Tech for future“ hat die Unternehmerin, Speakerin und Programmiererin Aya Jaff auf der Langen Nacht der Wissenschaften live vor Publikum eine Folge aufgenommen. Interdisziplinär und zukunftsorientiert befasst sich die Talkrunde mit dem Thema „Künstliche Intelligenz und Ethik“ und die Gäste sprechen für sich: FAU-Präsident Prof. Dr. Joachim Hornegger, Prof. Dr. Peter Dabrock und Prof. Dr. Florian Höhne.
Moderation Aya Jaff:
Einen wunderschönen guten Abend. Mein Name ist Aya Jaff. Ich freue mich sehr, dass Sie hier zahlreich erschienen sind. Ja, die Lange Nacht der Wissenschaften, das ist mein erstes Mal, dass ich tatsächlich wirklich was mitmache. Bisher war ich auch nur wie Sie ein Gast. Und jetzt bin ich auf der anderen Seite. Also ich hoffe wirklich, dass Sie diese Diskussion heute mitnehmen, sich vielleicht inspirieren lassen, Punkte natürlich auch mit ansprechen. Gerne haben wir hier auch Fragen, die Sie ja am Ende natürlich stellen können. Wir haben hier auch jemanden, der mit einem Mikro dann durchgehen würde. Und ansonsten fangen wir mit der Diskussion an. Das hier ist ein Live-Podcast. Das bedeutet, dass hier die Aufnahme auf jeden Fall für einen Podcast genutzt wird, den ich bald starten werde. Das ist für mich auch Premiere. Vielen Dank auch an meine Gäste, dass Sie hier dabei sind. Dieser Podcast wird voraussichtlich Tech for Future heißen. Ich bin da noch ein bisschen am Kniffeln, am schauen, ob das der richtige Name ist. Aber Tech for Future, darum soll es heute gehen. Ich habe mich inspiriert gefühlt von Fridays for Future, nämlich den ganzen Leuten, die im Moment auf die Straße gehen und für natürlich eine Verkehrswende auch streiken gehen. Und ich dachte mir, was kann ich denn als Techie da beitragen? Und für mich lag es nahe, dass ich mit Expertinnen natürlich aus dem Tech-Bereich und aus den ganzen Schnittstellen auch ins Gespräch gehe und wirklich mal frage, was kann Tech heute, KI, zumindest in diesem Podcast, was kann KI zum Klimawandel auch wirklich beitragen? Und was bedeutet das eigentlich, wenn wir über KI sprechen? Und natürlich auch hier, Schnittstelle Ethik. Was bedeutet das für uns alle? Ja, wir haben heute hier ganz prominente Gäste, würde ich sagen, dabei. Mit unter anderem FAU Präsident, Herr Prof. Hornegger. Vielen Dank, dass Sie dabei sind. Sie sind ja selber Experte in Mustererkennung in KI und haben hier ganz, ganz viel Wissen mitgebracht. Wir haben aber auch natürlich die Ethik-Seite des Ganzen mit Herrn Prof. Dr. Peter Dabrock. Auch hier vielen Dank, dass Sie dabei sind. Sie waren ja auch, Sie sind zum Beispiel Lehrstuhl für Systematische Theologie II und von 2016 bis 2020 Vorsitzender des Deutschen Ethikrats gewesen. Also hier haben Sie nochmal ganz viel Expertise, wie es wirklich dann vor Ort abläuft, wie über Ethik gesprochen wird. Da habe ich nämlich auch meine Fragen. Und wir haben zu guter Letzt Prof. Dr. Höhne, Florian Höhne, Lehrstuhl für Medienkommunikation, Medienethik und Digitale Theologie mit dabei. Ja, vielen Dank. Lassen Sie uns starten. Also, ich habe mich gefragt, wer von Ihnen hat eigentlich schon mit Chat-GPT gespielt? Einmal Hände hoch. Super. Okay, das ist 99 Prozent des Saals, wie ich das hier sehe. Und wer hat eine nützliche Erfahrung daraus gezogen? Okay, sehr, sehr viele. Wer hat negative Erfahrungen daraus gezogen? Aha. Sie? Okay, das muss ich mir merken. Ich muss sagen, ich kann mich auch zu beiden Gruppen zählen, aber ChatGPT hat mich persönlich sehr inspiriert, natürlich auch meine Texte besser zu gestalten, mehr Brainstorming auch zu machen einfach. Und meine Frage hier schon mal. Herr Hornegger, wann war das letzte Mal, dass Sie ChatGPT benutzt haben?
Prof. Dr. Joachim Hornegger:
Das war in den letzten Tagen. Ich nutze es sehr häufig und sehr oft und mir hilft es auch in vielen Fällen.
Moderation Aya Jaff:
Ja, für was benutzen Sie das so?
Prof. Dr. Joachim Hornegger:
Ich benutze es meistens, um Texte zu kürzen. Wenn ich was twittern möchte, dann sage ich einfach short it for Twitter und dann habe ich den Text etwas kürzer. Und dann poliere ich es natürlich noch ein bisschen, damit es meinen Stil auch trifft. Aber es ist ein Werkzeug, das ich nutze, wie auch einen Taschenrechner, um mir gewisse Aufgaben zu erleichtern.
Moderation Aya Jaff:
Herr Höhne, Sie haben gesagt, Sie hatten eine schlechte Erfahrung mit ChatGPT.
Prof. Dr. Florian Höhne:
Das war zugegebenermaßen in der Anfangszeit und bei der freien Nichtbezahlversion. Wir hatten probiert im Kollegenkreis Wikipedia-Artikel für uns jeweils verfassen zu lassen. Und da kam größter Mumpitz raus. Ich habe zum Beispiel über mich selbst gelernt, dass ich offenbar ein prominenter Wirtschaftswissenschaftler des 19. Jahrhunderts bin.
Prof. Dr. Joachim Hornegger:
Und ich habe den Leibniz-Preis 2012 gewonnen, weil ich auf einem Foto mit drauf war und ein Glas Wein getrunken habe als die Preisverleihung war. Also man muss da schon sehr vorsichtig sein.
Moderation Aya Jaff:
Haben Sie sich auch selber gegoogelt?
Prof. Dr. Peter Dabrock:
Ich habe mal, weil ich relativ früh im Januar einen Artikel bei Spiegel zu ChatGPT geschrieben habe, bin ich dann mal eingeladen worden vom Deutschlandfunk zum Thema Predigt und ChatGPT. Und dann habe ich gedacht, okay, da musst du, bevor du darüber redest, mit dem Ding mal ein bisschen spielen. Und ja, ehrlich gesagt, in der Zeit hätte ich auch anderes angucken können. Das war jetzt nicht sonderlich großartig, was das Ding mir da gegeben hat. Das hätte Wikipedia auch hingekriegt.
Moderation Aya Jaff:
Aber ganz kurz, Predigt, gibt es Leute, die das machen?
Prof. Dr. Peter Dabrock:
Also rein theoretisch kann man ja sagen, ChatGPT, schreib mir mal eine Predigt für den nächsten Sonntag mit dem und dem Text. Also morgen kann man zum Beispiel Florian Höhne hier in der Universitätskirche hören, wenn er predigt.
Prof. Dr. Florian Höhne:
Ohne ChatGPT geschrieben.
Prof. Dr. Peter Dabrock:
Ohne ChatGPT, zu einem sehr spannenden Thema, habe ich gerade schon gehört. Naja, also das kann man ja rein theoretisch machen. Und dann sagen, und dann habe ich so verfeinert, also den Prompt nochmal versucht zu spezifizieren und habe gesagt, und darin bitte literarische Anspielungen zur Literatur des 19. Jahrhunderts. Und dann habe ich gesagt, und jetzt bitte noch Bezugnahme auf ein paar Kunstwerke aus dem 20. Jahrhundert und so weiter und so weiter. Aber das war alles trostlos.
Moderation Aya Jaff:
Ja, ich habe auch schon ganz viele Brainstorming Sessions, die am Ende nicht so fruchtbar waren, aber trotzdem war es interessant, wie die KI das natürlich interpretiert mit dem Prompt. Ich habe aber auch etwas anderes gesehen. OpenAI hat, ich lese es mal vor, hat stillschweigend seine Grundwerte, nämlich auf der Karriere-Seite des Unternehmens, verändert. Und aus dem Internetarchiv vom 25. September noch diesen Jahres zeigt die ursprüngliche Grundwerte, also Grundwerte-Charta des Unternehmens, Worte wie kühn, durchdacht, unprätentiös, wirkungsorientiert, kooperativ, wachstumsorientiert. Und die neuen Grundwerte von OpenAI sind jetzt aber AGI-Focus, intensiv und erfinderisch, Skalierung. Und es gibt gar kein Wort, was dieses wirkungsorientierte oder kooperative ersetzt. Also das haben sie gestrichen. Und sie wollen etwas schaffen, also wirklich Zitat, etwas schaffen, das den Menschen gefällt und Teamgeist, laut der Karriere-Seite, fördern. Es ist unklar, wann genau diese Änderung stattgefunden hat. Wir wissen nur, dass sie jetzt erst ganz jung geschehen sind. Und der ursprüngliche Satz von diesen Grundwerten wurde seit mindestens Januar 2022 verwendet, also laut dem Internetarchiv, seit es OpenAI ungefähr gibt. Und ich frage mich, Herr Hornegger, was meint OpenAI mit AGI-Focus? AGI, das habe ich jetzt immer öfter gesehen, Artificial General Intelligence. Das ist die Abkürzung. Und ich denke mir so, wir reden ganz viel über KI und diese großen Worte nehmen wir in den Mund. Ich hätte gerne einfach mal, dass Sie es wirklich für Dumme erklären. Nicht, dass Sie dumm sind, aber für mich einfach mal wirklich. Was ist AGI, was ist KI und wie unterscheiden wir die Zwei?
Prof. Dr. Joachim Hornegger:
Also das ist ein Thema, das nicht einfach ist. Künstliche Intelligenz versucht ja, die Intelligenz des Menschen zu simulieren auf einem Computer. Und die Frage ist, wann ist ein System intelligent? Da gab es früher schon Aussagen, wenn man einen Dialog führt mit jemandem und man merkt nicht, zum Beispiel über das Telefon, und man kann nicht feststellen, dass es kein menschlicher Gesprächspartner ist, dann ist die KI perfekt. Das war der sogenannte Turing-Test, in den 60er Jahren ist der aufgekommen. Und wir haben sehr viele Arbeiten in den letzten 50, 60 Jahren, die sich mit der Problematik beschäftigen, wie sieht ein Mensch, wie verarbeitet ein Mensch Sprache, wie führt man Dialoge, wie baut man Dialogsysteme. Also da gibt es sehr, sehr viele Arbeiten. Es hat sich aber deutlich jetzt was verändert, weil früher war Mustererkennung, künstliche Intelligenz, die Kunst mit wenigen Daten, möglichst gut zu generalisieren und auf Situationen zu schließen, die man bisher nicht beobachtet hat. Heute ist es so, dass Sie mit der generativen künstlichen Intelligenz über die Unmengen an Daten, die Sie im Internet verfügbar haben, ganz anderes Datenmaterial haben und damit Sprachmodelle generieren können. Statistische Sprachmodelle, kann man sich ganz leicht vorstellen, welches Wort folgt auf welches Wort, mit welcher Wahrscheinlichkeit. Da braucht man keine linguistische Beschreibung, sondern es ist brutale Statistik, die hier mit immens großen Datensätzen betrieben wird und mit den Parallelrechnern, die wir heute über die Grafikprozessoren zur Verfügung haben, haben wir auch eine ganz andere Rechenpower, um das zu bewerkstelligen. Und mit der generativen künstlichen Intelligenz können wir eben Modelle generieren, die Dinge bearbeiten können, die so in der Form vorher nicht beobachtet waren. Das Dialogsystem von ChatGPT verwendet große Sprachmodelle, die dann auch eingesetzt werden können, um eben so mächtige Antwortsysteme zu bauen, wie wir das heute über ChatGPT erfahren. Das Wissen im Netz wird gesammelt und dann wird mit den generativen Modellen auch da an der Stelle gearbeitet. Hört sich ein bisschen kompliziert an. Ich habe damals in der Vorlesung auch immer den Leuten erklärt, wenn man so mit statistischen Modellen arbeitet, dann ist die Wahrscheinlichkeit eben hoch, dass der Name Merkel in der Süddeutschen auftaucht und dann weiß man, wenn man so etwas Ähnliches liest, die A priori Wahrscheinlichkeit, den Namen Merkel zu lesen in der Süddeutschen ist relativ hoch. Sie sehen, ich habe vor längerer Zeit schon vorgelesen und dass der Name Hornegger vorkommt, ist die Wahrscheinlichkeit null. Und diese Information, heute hat sich vielleicht ein bisschen geändert, aber damals war es so. Und das ist eine Art von Information, die stand einem vor 20, 30 Jahren, als das Internet noch nicht so verfügbar war wie heute, nicht zur Verfügung. Und wir alle haben diese Entwicklung ja mitverfolgt. Ich bin ja Informatiker. Und es war unglaublich, welche Methoden in der Zeit entwickelt worden sind und welche Applikationen heute möglich sind. Ich meine, Sie können heute ja formulieren, da zeigen wir die Plätze in Rom, die am häufigsten fotografiert werden und dann können Sie am Ende noch die Brennweite Ihrer eigenen Kamera angeben und dann können Sie Ihrer Frau die Urlaubsfotos schicken, wenn Sie in Hamburg unterwegs sind.
Also das geht heutzutage.
Moderation Aya Jaff:
Und was ist AGI dann? Warum hat OpenAI das als Ziel formuliert, AGI-Fokus?
Prof. Dr. Joachim Hornegger:
Das kann ich jetzt nicht beantworten. Also das ist eine schwierige Frage. Weiss ich nicht, bin ich jetzt zu weit weg, warum die sagen, das ist jetzt unser Kernbaustein.
Moderation Aya Jaff:
Ich habe mich das gefragt, ich habe angefangen zu googeln. AGI, ich habe mir so Talks angeschaut von Sam Altman. Und da hat er ganz oft diesen schwammigen Begriff, hat er zumindest ganz oft definiert wie folgt: AGI ist so etwas, was wirklich, was viel, viel, viel machtvoller ist als die KI, was wir heute kennen. Wir haben AGI noch nicht erreicht. Und es kann sein, dass wir in den nächsten 10, vielleicht früher, vielleicht später, 10 Jahren, dass wir dann dieses AGI-Level erreichen, also von einem System, was so schnell, also natürlich besser, schneller lernt als der Mensch, aber das wirklich genauso flexibel und gut reagieren kann, wie halt eben auch ein Mensch es tun würde. Und dass wir dieses Level eben noch nicht erreicht haben und dass das das große, übergeordnete Ziel ist. Ich tue mich wirklich sehr schwer, dieses Wort zu definieren, weil es keine eindeutige Definition gibt. Aber ich finde es trotzdem krass, dass Sie als Ziel formuliert haben, die beste KI so ungefähr, die beste KI auf der Welt zu produzieren. So würde ich das zumindest wiedergeben, dass Skalierung im Vordergrund steht und nicht mehr nur auf Dinge zu achten, die vielleicht schiefgehen könnten. Sie haben auch das englische Wort Scrappy verwendet. Also wirklich Scrappy bedeutet, es wird unordentlich, weil es schnell werden muss und weil es schnell gehen muss. Wie stehen Sie dazu, Herr Dabrock? Wenn Sie sehen, die Werte haben sich geändert bei OpenAI. Es ist nicht mehr wirkungsorientiert, sondern auf Skalierbarkeit aus und die KI steht im Vordergrund. Was hören Sie daraus?
Prof. Dr. Peter Dabrock:
Also, erste Aufgabe der Ethik – Warnung vor Moral und nicht einfach Moralverstärkung. Wenn ich jetzt Moralverstärkung betreiben würde, würde ich sagen, alles ganz schlimm und der Untergang des Abendlandes naht. Und generalisierte künstliche Intelligenz ist das Ende der Menschheit. Und nach der generalisierten künstlichen Intelligenz kommt dann noch, wie Kurzweil immer gesagt hat, die Singularity. Also diejenige, die dann wirklich nicht nur so flexibel ist wie ein Mensch, sondern dann sogar die Weltherrschaft übernimmt. Also, erstens würde ich nicht davon ausgehen, dass es eine generalisierte künstliche Intelligenz so gibt, wie ein menschliches Hirn flexibel ist. Aus unterschiedlichen technischen Gründen bis hin zur, wie man in Diskussionen sagt, Embeddedness von Cognition. Also, bodily embeddedness. Also, dass wir Menschen scrappy sind, hängt damit zusammen, dass wir leibliche Wesen sind. Und nicht nur Kognition sind. Also unsere, nicht nur Rationalität, das fand ich gut, was du gesagt hast, das imitiert, menschliche Intelligenz, aber Intelligenz auf Rationalität, aber nicht auf Vernunft. Also, rationality, aber nicht reasoness. Und von daher bin ich da jetzt nicht so ängstlich. Ich sehe aber, dass viele Kompetenzen, die wir eigentlich benötigen, um den Schritt von der Rationalität zur, dann auch Vernunft hinzubekommen, wir uns so abnehmen lassen, dass ich befürchte, dass wir uns einlullen lassen. So, und dann hängen damit eher Fragestellungen zusammen, und das ist jetzt die Antwort auf Ihre Frage, die ganz viel zu tun haben mit einer globalen Wirtschaft. Und da, also so komisch das für uns klingt, aber ich hatte mal über Jahre das Vergnügen wirklich mit, also mit Google und Meta, auch auf der Führungsebene Gespräche führen zu dürfen. Und ob wir uns das jetzt vorstellen oder nicht, aber für die sind es einfach Konkurrenzkämpfe mit anderen großen Techfirmen. Ja, und die haben wirklich den Eindruck, wenn wir nicht move fast and break things, das ist irgendwie immer noch im Hintergrund. Ja, das steht ja auch hinter dem Scrappy dann so. Wenn die das nicht machen, dann werden die geschluckt von irgendeinem der anderen. Und wenn nicht hier, dann vielleicht irgendwann dann noch der System Wettkampf USA gegen China. Also das steht alles irgendwie im Hintergrund, wenn diese Firmen solche aus unserer Sicht irgendwie total verrückten Mission Statements ausgeben. Aber das heißt nicht, dass wir, weil wir das jetzt nachvollziehen können, sagen wow super, dass ihr das so macht, sondern wir haben auch wiederum als Zivilgesellschaften, als Bürger der Europäischen Union das Recht zu sagen, wir machen aber nicht alles mit, wie in den USA das gemacht wird. Also von daher, auf der einen Seite würde ich Luft rausnehmen, aber auf der anderen Seite sehe ich schon auch, aber nicht so sehr auf der technischen, sondern eher auf der soziotechnischen Ebene massive Herausforderungen.
Moderation Aya Jaff:
Ich würde mir jetzt weniger wünschen, dass ein großer Tech-Unternehmer, Tech-Unternehmer, ich sage das bewusst in der männlichen Form, weil es weibliche gar nicht so viele gibt, zumindest kenne ich sie nicht in diesem großen Rahmen, das Wort Scrappy als Vorbild verwendet. Und ich weiß, was es in mir persönlich ausgelöst hat auf so einer individuellen Ebene, dass ich das Gefühl habe, aber wenn die nicht darauf achten, wer denn dann? Und dann kommt so die Frage von so einem Ethikrat natürlich auf. Wer im Unternehmen schaut da wirklich drauf, wird auf diese Menschen gehört und ich weiß im Vorgespräch, dass Sie meinten, dass Sie hierzu auch ein paar Erfahrungen sammeln durften. Können Sie ein bisschen erzählen, wie das in so einem großen Unternehmen läuft? Hören die da wirklich auf diese Leute, wird nach diesen Menschen gesucht, die wirklich ethisch beraten?
Prof. Dr. Peter Dabrock:
Also die Gespräche, die ich jetzt wirklich geführt habe, die unterliegen ja immer den sogenannten Chatham House Rules. Das heißt, man darf nicht aus den Gesprächen berichten. Also werde ich nur solche Sachen sagen, die man auch in der Presse lesen konnte. Und das kann man ja. Und da würde ich jetzt zwei Sachen festhalten. Zum einen war ich erstaunt, wie in der Frühphase als KI noch Big Data hieß, wie sehr die großen Techfirmen interessiert waren, mit EthikerInnen ins Gespräch zu kommen. Und ich war mir immer nicht sicher, ob das Feindbeobachtung oder wirkliches Interesse war. Also ich habe wirklich wahnsinnig interessante Gespräche geführt. Ich kann sagen, ich habe auch mit der politischen Führungsebene damals in meiner Amtszeit als Ethikrats-Vorsitzender, da hatten wir eine große Stellungnahme zu dem Bereich, deswegen kam das, auch mit Zuständigen, also auf der politischen Ebene, mit Ministern, Fraktionsvorsitzenden, ich habe im Ausschuss darüber vorgetragen, und die haben mich mit großen Augen angeguckt und gleichzeitig kamen proaktiv die Techfirmen auf mich zu. Und das fand ich spannend jedenfalls. Und ich bin ziemlich sicher, dass sowas wie im Ethikrat in der Stellungnahme Datensouveränität als informationelle Freiheitsgestaltung geschrieben haben, dass denen das nicht gefallen hat. Deswegen gehe ich irgendwie davon aus, dass es eher Feindbeobachtung war. Das zweite, was ich wahrgenommen habe in Firmen, also das ist jetzt ja auch nochmal aus der Presse lesbar, dass Google, da wo es plötzlich im Zusammenhang mit KI und dem KI, die hatten ja so einen eigenen Code of Conduct entwickelt, plötzlich kritisch wurde für die eigene Firma, musste plötzlich die AI Ethics Vizepräsidentin die Segel streichen.
Moderation Aya Jaff:
Ja, das war ganz große News.
Prof. Dr. Peter Dabrock:
Das war große News, überall bis in der Times und überall.
Moderation Aya Jaff:
Und sie wurde nicht ersetzt, richtig?
Prof. Dr. Peter Dabrock:
Es gibt, das habe ich heute nochmal in Vorbereitung für diese Gesprächsrunde gesehen, es gibt einen Responsible Research Director. Die habe ich auch mal kennengelernt, auch eine eigentlich tolle Frau, aber die heißt nicht mehr Ethics Officer. Das können Sie alle nachlesen, jetzt fällt es mir nicht ein. Am Samstag, jetzt in der Süddeutschen, gab es das, gibt es auch immer dieses Google Magazin, das ist heute als Beilage in der Süddeutschen gewesen, kann man auch online downloaden.
Moderation Aya Jaff:
Da können Sie quasi die…
Prof. Dr. Peter Dabrock:
Und da war ein Gespräch mit der Frau, genau.
Moderation Aya Jaff:
Wenn es dann innerhalb der Unternehmen, ich würde nicht sagen, nicht ernst genommen wird, aber zumindest zu einem gewissen Grad auch dem Profit sich unterordnen muss, wie passiert das dann auf der individuellen Ebene wirklich für den Menschen? Also ich habe ja schon gesagt, was es in mir ausgelöst hat, ein bisschen Panik, ich frage mich, wer ist denn eigentlich für die Ethik verantwortlich, muss ich mich jetzt selber anschauen. Das Thema Deepfakes beispielsweise, da weiß ich, dass Sie auch einen kleinen Workshop dazu geplant haben. Was bedeutet das für den einzelnen Menschen? Bin ich jetzt in der hauptsächlichen Verantwortung zu sagen, ich gehe jetzt verantwortungsvoll mit der Technologie um? Ich werde beispielsweise, keine Ahnung, ChatGPT nicht nutzen, um in den Klausuren bessere Antworten zu geben. Oder meine Hausarbeiten damit schreiben lassen. Oder ich werde vielleicht als HR-Chefin dagegen sein, solche Systeme zu nutzen, um Menschen wirklich einzustellen. Das hat ja alles ganz viele Fragen hinter sich, ein Rattenschwanz an Fragen, die ethischer Natur sind. Wie sieht man das so als Mensch?
Prof. Dr. Florian Höhne:
Ich denke, dass ich in Antwort auf die Frage, auf Ihre Ursprungsfrage sozusagen, die differenzierte Antwort ist, jein, sind Sie dafür verantwortlich alleine. Denn es braucht den größeren Rahmen, der Verantwortung sortiert und der all das mit auf dem Schirm nimmt, was wir auch gerade eben schon gehört haben. Der von einer unternehmensethischen Verantwortung der jeweiligen Unternehmen spricht, der jeweiligen Plattformbetreiber spricht, der von einer Verantwortung der ProgrammiererInnen spricht und derjenigen, die hier in Code entwickeln. Es braucht zudem die darüber liegende oder daneben liegende Dimension der politischen Verantwortung, die einen gesetzlichen Rahmen dafür setzt. Und wenn wir darüber gesprochen haben, dass es hier auch auf struktureller Ebene Verantwortung zu übernehmen gilt, dann können wir auch darüber reden, dass es eine individuelle Verantwortung gibt, eine individuelle Verantwortung von einzelnen NutzerInnen. Ich betone den Vorrahmen so, weil es denke ich eine große Versuchung und Gefahr von der Medienethik gleichzeitig ist, einfach die ganze Verantwortung auf die individuellen NutzerInnen abzuladen und zu sagen, die werden das schon machen. So einfach ist es nicht, weil individuelle NutzerInnen mit vielen Herausforderungen, die mit künstlicher Intelligenz und die auch schon mit digitalen Medien auf uns zugekommen sind, überfordert sind oder überfordert wären. Nehmen Sie nur das konkrete Beispiel mit dem Deep Fake. Wenn ich nach der Verantwortung von individuellen NutzerInnen frage, dann muss ich fragen, Sie sehen einen Post mit einem Foto drin, den Sie gerne in Ihrem Freundeskreis weiterleiten würden. Sind Sie dafür verantwortlich, dass Sie ein Deep Fake weiterleiten, wenn Sie einfach nur auf den Teilen- oder Retweeten-Button klicken? Da sieht man schon, was für eine potentielle Überforderung in dieser Situation drinsteckt, denn so funktioniert die alltägliche Social Media Kommunikation nicht, dass Sie sich bei jedem Retweeten früher oder bei jedem Teilen lange Gedanken darüber machen, ob das hier verantwortlich ist, das weiterzuleiten. Deshalb braucht es sozusagen die Frage nach der strukturellen Verantwortung und die Frage nach der Verantwortung auf einer Plattform-Ebene. Da ist in der Medienethik traditionellerweise die Rede von gestufter Verantwortung, die also je nach der Möglichkeit etwas zu verändern, Verantwortung zuordnet. Das ist mir auch in dem Fall sehr einleuchtend.
Moderation Aya Jaff:
Sie haben ganz kurz auch darüber gesprochen, die Menschen, die diese Technologie produzieren, haben ja auch eine Verantwortung. Eine Frage an Sie: ist das möglich zu sagen, hey, die ProgrammiererInnen geben ihre Ethikprinzipien weiter? Inwiefern darf ich mir das vorstellen, dass wirklich die Menschen hinter dem Programm dafür verantwortlich sind, wie ethisch vertretbar das am Ende ist?
Prof. Dr. Joachim Hornegger:
Die Frage an mich als Informatiker? Das ist eine schwierige Frage. Die Informatik wird ja getrieben von neugierigen Menschen, die versuchen, ganz konkrete Fragestellungen zu beantworten, Mechanismen zu verstehen, die in Algorithmen abzubilden und mit den Möglichkeiten, die bestehen, Neues zu schaffen. Das ist die Aufgabe auch der Wissenschaft in der Informatik. Und an der Stelle ist es schon oft so, dass man, wenn man die Frage formuliert, wenn man an der Mathematik und Algorithmik arbeitet, nicht an ethischen Fragestellungen hängen bleibt, sondern man versucht ein autonomes Fahrzeug zu programmieren, Hindernisse zu erkennen, Menschen zu detektieren, nicht zu erkennen, sondern zu detektieren und dann entsprechend sicherzustellen, dass das Auto nicht kollidiert. Und wenn die Kollision nicht vermeidbar ist, dann muss man halt an der Stelle bremsen und die Fragen, wie sie in der Ethik diskutiert werden, in welchen Fällen welche Entscheidungen zu treffen sind, da weichen wir dann eher immer auf randomisierte Beispiele aus. Aber dass wir dann das Ganze zu Ende denken, was passiert, wenn wir in der Anwendung das in dem Produkt abbilden und dann in dem ganzen Rechtssystem und in dem Ethiksystem eingesetzt werden, da braucht es, glaube ich, gerade mit der neuen Technologie andere Ansätze in der Forschung und mit einem Sonderforschungsbereich, den wir zurzeit an unserer Universität am Laufen haben versuchen wir beispielsweise über Sensorik aufs Körperinnere zu schließen, ob das jetzt Bewegungsmodelle sind oder psychische Aspekte sind und da ist Professor Dabrock dabei und begleitet das auch ethisch, dass man nicht am Ende, wenn die Sachen fertig sind, drüber nachdenkt, sondern auch während der Entwicklung sensibilisiert. Aber das ist in dem Forschungsumfeld eine relativ junge Entwicklung, neue Entwicklung und da müssen wir auch aufpassen, dass wir das gut handhaben in der Praxis. Denn am Ende, wenn ich in der Informatik wissenschaftlichen Fortschritt erreichen möchte, dann muss ich mich international in der Community stellen und die Lösungsansätze präsentieren und da spielen bislang ethische Diskussionen keinerlei Rolle. Und das ist auch das, was im Silicon Valley passiert. I don’t care, I just do it. Ich mache es und schaue, was geht und am Ende schaue ich, wer Bedarf hat und Anwendungen dafür und dann werden daraus Geschäftsmodelle entwickelt. Und da bleibt oftmals der Idealismus am Ende auf der Strecke. Bei Google haben wir es ja auch gesehen am Anfang, we are good for the world und da hat man sehr here Ziele formuliert und wenn dann das knallharte Business dahinter geschaltet ist, dann verändern sich die Dinge und die Randbedingungen.
Prof. Dr. Peter Dabrock:
Ich will das sehr unterstreichen auch nochmal. In der idealen Welt der Forschung und auch diversen Stellungnahmen, das war immer in der European Group und Ethics war eine Stellungnahme seit 2012 oder so etwas schon zu Ethics of Information Computer Technologies. Und da haben wir schon damals gesagt, es braucht einen, jetzt kommen zwei Fremdworte, ich erkläre es so kurz, Ethics in a by Design-Prozess. Also schon während des Programmierens der jeweiligen Programme müsste eigentlich Ethik schon mit an Bord sein und by Design heißt eben die Programmierung selbst muss eben bestimmten ethischen Kriterien eben auch entsprechen. Und das Spannende ist ja dabei, es gibt genug Beispiele davon, wie auch solche KI Programme dann, also gerade, sie haben es gerade angesprochen im HR- Bereich, dass sie eigentlich einen Bias haben immer, dass bestimmte Auswahlprozesse so laufen im Bereich der Mathematik, dass es dann eben doch eher den älteren weißen Herren trifft als irgendjemand anders. Und da ist, also um das jetzt auf so ein Beispiel zu beziehen, ist eben wichtig, erstens, dass einem deutlich wird, es gibt Biases überall, also Vorurteilstrukturen. Und zwar nicht nur die einen sind gut und die anderen und die haben keine Vorurteile und die anderen sind die ganze Bösen. Sondern es ist eigentlich ein Ringen darum, dass die jeweiligen Vorurteilstrukturen miteinander wechselseitig abgeglichen werden. Also man beobachtet Beobachter, die Beobachter beobachten und so auf die Art und Weise versucht man dann den Bias möglichst klein zu halten. Aber zu denken, man würde ihn los, ist schon der größte Fehler. Ja, also deswegen ist es eben ein ständiger Prozess und wenn man denkt, jetzt hat man es, muss man immer damit rechnen, dass von hinten durch die Tür wieder was Neues reinkommt. Und deswegen muss man sich bewusst sein und deswegen hat ein australischer Kollege mal vor zwei, drei Jahren die These vertreten. Wir werden in 10, 15 Jahren neben dem CIO und dem CTO und dem CEO werden wir auch einen Chief Ethics Officer in jeder Firma haben, weil es, je mehr wir KI in alltäglichen Dingen haben, auch ein komparativer Wettbewerbsvorteil sein kann, wenn man sozusagen das Gütesiegel drauf hat „Wir haben uns mit der Thematik beschäftigt“. Das heißt nicht, wie gesagt, dass die Bias ist weg sind, aber wir haben es einmal durch die Reflexionsschleife laufen lassen. Und das glaube ich wäre auch von Europa ein Vorteil, der schwierig ist, aber den man durchaus sehen sollte.
Prof. Dr. Joachim Hornegger:
Da würde ich gerne noch ein paar Punkte ergänzen. Ich denke, das ist ganz wichtig, Ethics by Design mit reinzubringen, denn was wir immer beobachten ist auch so ein bisschen das Thema German Angst. Ja, ChatGP das ist von 20 Leuten entwickelt worden, lasse es 30 sein, und kaum war es da und schon waren Hunderte von Wissenschaftlerinnen und Wissenschaftlern in Deutschland damit beschäftigt, über die Risiken und Gefahren von ChatGPT zu forschen und sich darüber Gedanken zu machen, anstatt dass wir die Ressourcen vorher reinstecken, um so ein System vielleicht auch mal aus Deutschland heraus zu entwickeln. Also was ich damit sagen will, man muss schon auch die Bereitschaft haben, neue Wege zu gehen und dafür gibt es auch Universitäten, wo diese Bereitschaft gegeben ist. Wir bauen ja keine Produkte, sondern wir überlegen uns, was ist möglich, welche Fragen können wir lösen an einer Volluniversität – und jetzt kommt der Werbeblock für die FAU – da decken wir ein breites Fächerspektrum ab und haben eben die Kompetenzen in den verschiedensten Bereichen, wie mit den beiden Kollegen, die rechts und links von mir sitzen, die uns während unserer Forschungsarbeiten an der Stelle kompetent begleiten können. Und da braucht es, meine ich auch in Zukunft, etwas mehr Mut, auch mal die Dinge anzugehen, offen zu diskutieren und am Ende auch was zu präsentieren, wo man auch mal zeigen kann, nicht wie mit ChatGPT, wo man es rausgibt und alle reden drüber, sondern wo man die Idee rausgibt, aber gleichzeitig zeigt, dass man sich die Dinge ganzheitlich angeschaut hat, dass die holistisch analysiert wurden und dass man sich zu den verschiedenen Facetten von Anfang an Gedanken gemacht hat. Das ist also auch ein Paradigmen-Shift in der Entwicklung von solchen Systemen. Und KI-Systeme, wenn ich den Satz noch sagen darf, die sind ja auch von einer ganz anderen intrinsischen Art als Computerprogramme, wie wir sie vor 40 Jahren verwendet haben. So ein Programm, das entwickelt sich über die Zeit, das verändert sich und je nachdem, was es an Datenmaterialien bekommt oder Datenmaterial bekommt, entwickelt sich das System unterschiedlich. Können Sie sich das so vorstellen, wenn Sie heute Ihre digitale Unterschrift bei der Bank leisten und Ihre Unterschrift verändert sich über die Zeit, passen sich dann entsprechend die Parameter im System an, sodass Ihre Unterschrift auch über die longitudinale Zeitlinie erkannt werden kann. Aber bei Ihrem Partner oder Ihrer Partnerin passt sich das auch an, aber die Parameter sind ganz andere. Das heißt, da läuft dann ein ganz anderer Algorithmus ab und ein ganz anderes Verfahren, das zur Analyse eingesetzt wird. Und das ist auch etwas, was so eine Dynamik in die Informatik bringt, die wir in der Form vorher nicht kannten. Du kannst keine Programmverifikation machen, wo du genau vorhersagen kannst, wie sich die Software bei bestimmten gemessenen Daten verhält, weil man nicht weiß, welche Trainingsdaten vorher oder über die Zeit hinweg in das System eingebaut wurden. Und das ist eine ganz neue Dimension von Algorithmenforschung, die auch ganz andere Fragen nach sich zieht.
Moderation Aya Jaff:
Das ist auch etwas, was ich immer wieder höre, was Menschen ja verlangen. Ich muss komplett transparent sehen, wie sich dieses System verhalten wird, nur dann vertraue ich dem. Und das ist, glaube ich, die große Krux jetzt hier, dass man sagt, hey, das wird nicht möglich sein, egal welche KI-Richtlinie da jetzt rauskommt und das voraussetzt, das werden wir nicht erfüllen können. Ich habe ein Heft dabei, über das ich gerne sprechen würde, und zwar das Forbes-Magazin der DACH-Region. Auf dem Cover sehen wir hier Alex Blania. Alex Blania ist hier auch an der Uni, so wie ich das verstehe.
Prof. Dr. Joachim Hornegger:
Ein Alumnus, ja, und ist jetzt Gastdozent.
Moderation Aya Jaff:
Genau, Gastdozent bei Frau Möslein. Ich würde gerne sprechen darüber erstmal, sein Weg ist ja auch über verschiedene Unis gegangen. Er hat sich ja auch selber ein bisschen ausprobiert an Start-ups und ging dann ja an die Uni und hat da quasi seine ersten Anfänge mit seinem Unternehmen gemacht. Aber ich würde noch gerne kurz darauf eingehen, was denken Sie, Herr Hornegger, woran es scheitert, dass bei uns viele WissenschaftlerInnen den Sprung nicht schaffen in die Unternehmerwelt? Da gibt es auch ganz viele Konferenzreihen mittlerweile, wie beispielsweise Falling Walls in Berlin, die dann wirklich sagen, hey, wir wollen das jetzt ganz groß unterstreichen, dass viele wissenschaftliche Arbeiten es eben wirklich dann in eine Business-Idee schaffen. Warum sehen wir das nicht so oft in Deutschland? Hinkt Deutschland mit Innovationen hinterher oder ist da was anderes?
Prof. Dr. Joachim Hornegger:
Wenn wir die Antwort wüssten, glaube ich, könnten wir einige Dinge auch abstellen, aber da gibt es viele Aspekte, die zusammenhängen. Ich war Dozent in Stanford für Informatik und habe in Deutschland an verschiedenen Universitäten Informatik-Vorlesungen gehalten und es fühlt sich in den USA anders an, wenn man Informatik liest. Die sitzen da und die wollen die Ideen aufgreifen, die wollen mit den Dingen, die man vermittelt, neue Probleme lösen, die vorher keiner gelöst hat und verfolgen das Ziel, mit einer coolen Idee ein Unternehmen zu gründen. Bei uns in den Hörsälen, das sage ich jetzt einfach mal so plump, da wollen alle hier in Erlangen einen soliden Job bei Siemens, Lifetime oder vielleicht Beamter werden. Und dieses Risiko, diese Risikobereitschaft, dieser Hunger, der ist nicht zu spüren. Jetzt habe ich ein bisschen polarisiert. Woran wir arbeiten an der Universität, ist schon, dass wir diese Ideen auch in den Hörsaal tragen, dass wir erklären, mit welcher Idee war wer sehr erfolgreich. Dass einer mal sagt, Mensch, auf die Idee hätte ich auch kommen können, muss man einfach den Mut haben und man kann auch mit guten, einfachen Geschäftsideen auch tolle Geschäftsmodelle entwickeln, die dann auch tragen. Das ist das eine. Also die Bereitschaft und die Motivation, auch ins Risiko zu gehen. Und wir an der Universität sorgen auch dafür, wenn jemand bereit ist, ins Risiko zu gehen, dass wir auch gewisse Auffangbausteine bauen, dass man sagt, wenn es schief geht, dann kriegst du noch mal bei mir eine Stelle für ein Jahr, damit du da nicht ein Problem hast. Und solche Aspekte, da unterstützen wir auch. Das andere ist, wenn Sie eine Firma gründen wollen, müssen Sie sehr viele bürokratische Hürden nehmen. Auch da braucht es Unterstützung. Und da sind wir jetzt bei Gründerzentren, wie beispielsweise dem Zollhof in Nürnberg, den wir vor sechs Jahren inzwischen, oder ja, fünfeinhalb Jahren aufgebaut haben. Das ist der am schnellsten wachsende Hightech-Inkubator in Deutschland. Und da unterstützen wir diese jungen Unternehmer. Und Sie wissen das ja, Sie haben ja auch mal für unseren Zollhof gearbeitet. Dort haben wir einfach die Infrastruktur, um die wichtigsten Sachen abzuholen. Und der andere Aspekt ist die Kultur des Scheiterns, the culture of failure. Wenn Sie in den USA zwei Firmen an die Wand gefahren haben, dann heißt es toll, dann probieren wir halt die dritte und dann wird es schon klappen.
Moderation Aya Jaff:
Dann ist es ein erfahrener Gründer.
Prof. Dr. Joachim Hornegger:
Dann ist es ein erfahrener Gründer und das läuft dann auch. Bei uns ist es schon so, wenn Sie Investorengeld haben möchten, dann braucht man gewisse Sicherheiten. Und das ist alles so auf Sicherheit gepolt. Und das erschwert natürlich auch so Ausgründungen. Und das andere ist, dass wir auch ein sehr konservatives Umfeld insgesamt haben, was die Kunden angeht. Wir haben eine Ausgründung von meinem Lehrstuhl. Die beschäftigen sich mit hoch innovativer Technologie für eine Branche, die sehr etabliert ist. Und die sagen mir, du Achim, in Deutschland, die Firmen, die springen da nicht auf. Die haben den Mut nicht. Die sind nicht so innovativ. Unser Geschäft läuft im Ausland. Und auch das muss man sich mal anschauen. Warum ist da an der Stelle immer so ein bisschen die Zurückhaltung vorne dran? Und man schaut erst mal, was die anderen machen und ob es bei den anderen klappt. Und dann steigen wir darauf ein. Und als innovationsstarke Universität ist es natürlich unsere Aufgabe, genau an diesen Punkten anzusetzen und daran zu arbeiten.
Moderation Aya Jaff:
Ich kann das unterschreiben. Ich war zwei Jahre lang Head of Communications bei Zollhof und habe ganz viele Startups auch begleiten dürfen in ihrem Weg, sich auch auf internationaler Ebene Namen zu machen. Und leider war immer das Thema Finanzierung dann das große Ding. Ganz, ganz große Finanzierungsrunden kann man leider aktuell vor allem in den USA abschließen und vor allem, wenn eine große Vision formuliert wird. Ich habe mit so einem Health-Startup auch geredet, die Organe drucken wollten, also wirklich organische Strukturen drucken, dass man später einsetzen kann. Diese Moonshot-Idee kam nicht gut an, weil es war sehr unrealistisch, hätte zu lang gedauert. Also das kann ich unterschreiben, auf jeden Fall mit der Mentalität. Ich wollte einmal kurz vorlesen, was genau Alex Blania macht, weil ich nicht weiß, wer von euch von Worldcoin schon gehört hat. Und dann geht die Frage auch, ob ihr das auch versuchen würdet. Und zwar mit Worldcoin will der deutsche Alex Blania das größte dezentrale Finanz- und Identitätsnetzwerk der Welt bauen. Das soll mit Hilfe von Geräten passieren, die die Iris von Nutzern scannt und sie so als Menschen identifiziert. Doch die Idee hinter der OpenAI-Gründer Sam Altman steckt, könnte noch weitergehen. Geht die Wette auf, könnte Worldcoin zum Fundament für ein bedingungsloses Grundeinkommen werden. Doch Politiker, Datenschützer und Konkurrenten kritisieren das Projekt heftig. Wenn Sie Teil eines großen Projekts sein könnten, das für sehr, sehr viel Gerechtigkeit auf der Welt sorgen könnte. Dieses Gerät will Ihre Iris scannen. Würden Sie das tun? Einmal Hand hoch für Ja.
Prof. Dr. Joachim Hornegger:
Der Scanner wurde am Lehrstuhl für Mustererkennung an der FAU mitentwickelt.
Moderation Aya Jaff:
Wenn Sie diesen Werbeblock jetzt gehört haben, dann sehe ich hier 30% der Hände sind ungefähr oben. Ah, fast schon 40%. Darf ich vielleicht ein paar Meinungen hören? Darf ich vielleicht ein Mikro haben, wo ich einmal ein paar Meinungen hören kann? Einfach Hand hoch für jemand, der es ausprobieren wollen würde. Und warum?
Gast Publikum:
Also bei uns in der Firma war schon ein Zeiterfassungsgerät mit Fingerabdruck. Und das waren unglaublich wenig Leute, die wollten alle einen PIN-Code haben. Jeder meint wohl, das geht dann zum Bundeskriminalamt weiter oder so was. Dabei wird es überhaupt kein kompletter Fingerabdruck sein, sondern nur die Grundschemen. Das habe ich nie verstanden und ich war da lange Geschäftsführer. Und es ist wirklich traurig in Deutschland, wie vorsichtig man an sowas rangeht. Und es sind auch jüngere Leute, ich bin jetzt 71 und arbeite da immer noch, und auch jüngere Leute sind da stockkonservativ. Es ist mir ein Rätsel, warum man hier nicht etwas mehr American Spirit reinbringt, wenn wir es jetzt auch von Herrn Prof. Hornegger in Stanford gehört haben. Ich war auch so ein Pate einer Ausgründung an der Uni und die läuft immer noch. Und das macht unheimlich Spaß, als erfahrener Geschäftsführer hier ein bisschen zu unterstützen und das Ganze dann auch weiterzumachen. Aber auch da waren der Innovation schon relativ schnell Grenzen gesetzt, weil die also mit Viren gearbeitet haben, die für den Menschen völlig harmlos sind. Aber wenn die Leute Viren hören, dann drehen sie durch. Das ist German Angst.
Moderation Aya Jaff:
Vielen Dank für die Meinung.
Prof. Dr. Peter Dabrock:
Ich will mal ein Plädoyer für einen Aspekt von German Angst halten, weil ich glaube, dass wir die gute Ingenieurskunst, Herr Dr.-Ing., deswegen auch haben, weil wir die German Angst haben. Deswegen denken wir vielleicht noch mal 3-4 Ecken weiter. Und dann so, oh, könnte was passieren, könnte was passieren. Deswegen machen wir die besseren Maschinen, vielleicht über lange Zeit. Das kann sich jetzt ändern. Aber ich wollte nur sagen, wenn man es nicht übertreibt mit der German Angst, dann kann sie auch produktiv genutzt werden. Und zum Beispiel bei dem Iris-Scan, ich hätte da per se nichts gegen. Aber meine Rückfrage, German Angst, wäre einfach unser Workshop jetzt Deep Fake. Wenn das weitergeht mit Deep Fake, kann das Ganze dann nicht so missbraucht werden. Ich kenne das noch aus irgendwelchen James Bond Filmen, dass dann nicht nur sich eine Tür öffnet wie in dem James Bond Film, sondern, Sie haben gerade gesagt, es sei auch eine Finanz- und Identitätsfirma. Das heißt, dann wird die Identität, die digitale Identität geklaut. Und das ist etwas, wo ich sagen würde, wenn mir deutlich wäre, erstens, dass das sehr, sehr unwahrscheinlich wäre. Jetzt kann ja auch schon was passieren. Und zweitens, das ist für mich immer in diesen ganzen Verfahren so wichtig, Sie schaffen für mich Vertrauen, wenn Sie einhergehend damit einen Verbraucherschutz- und Haftungsrechtsrahmen mit präsentieren. Wenn das der Fall ist, dann bin ich durchaus bereit. Ich würde nicht einfach sagen, ich mache das an Tech fest, sondern ich mache das daran fest, wie die Tech sich präsentiert, damit ich Vertrauen geben kann. Denn Vertrauen ist ja eben genau nicht Sicherheit. Und in jedem Vertrauen schwingt doch auch Misstrauen mit. Denn sonst würde man sicher sein, aber man vertraut ja nur. Also brauche ich irgendwelche Regime, die mir ein Auffangbecken bieten. Und wenn sie das tun, bin ich dabei. Also ich würde das nicht immer so technik-affin und technik-averse, sondern wie ist die soziotechnische Einbettung?
Prof. Dr. Florian Höhne:
Und brauche damit Strukturen, um an das anzuknüpfen, was Sie mit der Fehlerkultur gesagt hatten, die einen menschenfreundlichen Umgang mit Fehlern ermöglichen, nicht nur in der Kultur, sondern auch in den strukturellen Gegebenheiten.
Moderation Aya Jaff:
Ich muss ein bisschen daran denken, wie wir als Gesellschaft damit umgegangen sind, als die ersten Filter entstanden sind. Wenn ich in meine Timeline schaue auf Instagram und auch, truth be told, auf meine eigenen Bilder schaue, dann weiß ich persönlich, ich habe ein paar Sachen bearbeitet. Hier habe ich die Haut gestrafft, da habe ich meine Augen schöner gemacht. Und ich weiß nicht, ich könnte mir auch vorstellen, dass ich in Zukunft vielleicht diesen Podcast, was ja mittlerweile heute möglich ist, auch auf andere Sprachen übersetzen lasse und vielleicht Leute gar nicht wissen lasse, hey, ich kann gar kein Spanisch. Und dann rede ich aber auch Spanisch. Komplett das ganze Video durch und niemand wird es ahnen. Ich, niemand wird es ahnen, okay, ein bisschen vielleicht am Dialekt würde man ein paar Dinge ahnen, das gebe ich zu. Aber wir haben das ja schon so weit gebracht, dass Deepfakes ja schon sehr, sehr überzeugend auch sein können. Wir haben aber auch Lösungen entwickelt, die helfen können, Deepfakes zu erkennen. Könnten Sie, Herr Höhne, ein bisschen erläutern, was das für Lösungen sind und auf welcher Seite quasi der Verantwortung, wie wir hier stehen?
Prof. Dr. Florian Höhne:
Nur ein paar wenige Stichworte dazu. In der Literatur, zum Thema Deepfakes kommt, künstliche Intelligenz, nicht nur in der Herstellung von Deepfakes vor, sondern eben auch in den Detektoren, die möglicherweise Deepfake-Bilder, Videos oder Stimmen erkennen können. Das wird sicher, wie du vorhin auch in dem Workshop gesagt hast, ein Wettlauf zwischen diesen beiden Entwicklungen sein, die sich gegenseitig optimieren. Aber damit liegt sozusagen in der Technik, die Deepfakes optimiert, auch eine Technologie vor, die die Erkennung von Deepfakes ermöglicht. Und das kann ermöglichen, transparent, also auch technisch transparent zu machen, wo ich ein Deepfake-Bild oder ein Video habe. Unabhängig von dieser technischen Möglichkeit wäre es ja aber auch eine wünschenswerte Selbstverpflichtung zu markieren, wo ich ein Bild, einen Vortrag oder einen Beitrag mithilfe von künstlicher Intelligenz gemacht habe und wo nicht, schlicht damit die Nutzerinnen wissen, woran sie sind. Wir haben einen ähnlichen Standard ja bisher auch schon in einer klassischen journalistischen Berufsethik und im Pressekodex. Wenn Sie da zu einem Artikel ein Foto finden, was nicht unmittelbar mit dem Thema zu tun hat, also beispielsweise der Artikel handelt von Kinderarmut und das Bild handelt von Kinderarmut im Großraum Erlangen-Nürnberg. Und das Foto ist nun ein reines Symbolfoto, was ein nicht kenntliches Kind aus einer völlig anderen Region Deutschlands zeigt. Dann gehört es zum Pressekodex als eine normative Vorgabe dazu, das ebenso kenntlich und transparent zu machen, damit Sie als Leserinnen und Leser wissen, woran sie sind. Eben, dass es ein Symbolfoto ist und nicht ein dokumentarisches Foto. Und eine ähnliche Transparenz auch für Deepfakes könnte ja helfen, Nutzerinnen mit dazu zu bemündigen und selbst zu entscheiden, was sie sich da aussetzen wollen und was sie dann weiter teilen wollen und was nicht.
Moderation Aya Jaff:
Heißt am Ende liegt die Entscheidung dann wirklich bei den Konsumenten, die dann damit konfrontiert werden. Hey, das ist vielleicht ein bearbeitetes Foto, dass sie das dann wissen.
Prof. Dr. Florian Höhne:
Auch, neben ein anderes auch bei den Konsumenten.
Prof. Dr. Peter Dabrock:
Ich könnte einfach sagen, wir haben nämlich in neun Minuten hier oben im Hörsaal zu Deep Fake nochmal einen Workshop.
Moderation Aya Jaff:
Das ist eine tolle Werbung. Wen das interessiert, genau kann gleich dann hoch in neun Minuten. Ich wollte nur kurz eine kritische Frage stellen. Und zwar habe ich auch gesehen, es gibt ganz viele lange Reihen, die sich für diese Iris Scanner eben auch anstellen. Nicht nur in Deutschland, sondern auch wirklich international. Und ich habe mich gefragt, warum ist das Interesse so groß? Ist denn das Misstrauen nicht da, was wir hier ein bisschen auch rausgehört haben? Die Leute werden pro Sign-Up bezahlt. Also, die kriegen Geld pro Iris Scan. Und ich kann mir schon vorstellen, wer dann quasi bei diesen ganzen Sachen mit ansteht. Menschen, die vielleicht ein bisschen weniger finanzielle Mittel haben, die sich eben wünschen, bei diesem Projekt dabei zu sein, um das Geld zu bekommen. Und die sind quasi jetzt die Versuchskaninchen, die dieses Misstrauen ein wenig ignorieren können. Das Bauchgefühl. Finden Sie das ethisch gerechtfertigt, Herr Höhne? Dass Menschen dafür bezahlt werden für diesen Iris Scan. Überraschungsfrage.
Prof. Dr. Florian Höhne:
Es hängt davon ab, was danach mit den Daten passiert. Und wie verantwortlich umgegangen wird mit den Iris Scan-Daten. Wenn dieser Anreiz, der geschaffen wird, tatsächlich ein Versuch sein sollte, Armutsprobleme zu bekämpfen, die sich aus der Ersetzung menschlicher Arbeitskraft durch künstliche Intelligenz ergeben. So ja die Ziele von Tools for Humanity. Die hochgesteckten Ziele von Tools for Humanity. Wenn das kombiniert ist mit einem Ansatz, der Daten schützt, dann wäre es zumindest erstmal ein respektabler Ansatz. Wo das nicht der Fall ist, ist es hochproblematisch, diesen Anreiz zu schaffen. Und damit Menschen da rein zu locken, ihre Daten preiszugeben. Und ist es auch in einer Perspektive globaler Gerechtigkeit hochgradig problematisch und knüpft an ungute koloniale Traditionen an. Wenn die in Anführungsstrichen Versuchskaninchen, die sich von so etwas locken lassen, vor allen Dingen aus dem globalen Süden kommen. Das ist hochproblematisch.
Moderation Aya Jaff:
Ja, auf jeden Fall finde ich auch. Herr Höhne hat jetzt gerade ganz gut gezeigt, wie die German Angst natürlich auch ein bisschen da ist bei diesen…
Prof. Dr. Florian Höhne:
Nein, Bedenken sind keine Angst.
Moderation Aya Jaff:
Bedenken, okay. Bedenken sind keine Angst.
Prof. Dr. Florian Höhne:
Ich würde unterscheiden zwischen einer German Angst, die jede Form von Innovation blockieren kann, weil sie zu sicherheitsorientiert ist und einem nüchternen darüber Nachdenken, was versucht, sowohl die Chancen, die in einer Innovation drinstecken, explizit zu machen, als eben auch die Gefahren, um eben auf Sichtfahren mit den Gefahren umgehen zu können.
Moderation Aya Jaff:
Herr Hornegger, wie sehen Sie das?
Prof. Dr. Joachim Hornegger:
Das ist ein schwieriges Thema, gerade für jemanden, der in der Informatik unterwegs ist. Ich kann Alex Blania und seine Firma auch verstehen. Die versuchen natürlich, an möglichst viele Daten ranzukommen. Die haben den Nachteil, dass sie einen sehr speziellen Sensor einsetzen. Wenn sie heute über WhatsApp Daten abgreifen, die man sowieso abtauscht, wäre es viel einfacher, im Hintergrund an die Daten ranzukommen, ohne dass man das so richtig merkt. Die werden ja irgendwo abgelegt, gespeichert und können dann auch unter Umständen benutzt werden, je nachdem, wie die Sicherheitsstandards sind. Die Differenzierung Bedenken und Angst, das kann ich so mittragen. Ich habe jetzt kein Problem damit, dass man die Dinge kritisch begleitet. Ich bin eher jemand, der an der Stelle ein bisschen mutiger ist und auch mal Dinge ausprobiert und einfach mal schaut, was ist heute technisch möglich und was funktioniert dann auch für mich. Ich respektiere es aber auch, wenn andere an der Stelle durchaus kritischer sind und eher erst einmal zurückhaltend agieren. Da muss man beide Seiten verstehen. Andererseits stelle ich eben auch immer wieder fest, dass das Thema Datenschutz etwas ist, in verschiedenen Bereichen, nehmen Sie die Medizin her, 80-90% der Patientinnen und Patienten wären bereit, ihre Bilddaten für die Forschung zur Verfügung zu stellen. Und 10, 20, 30 % haben höchste Bedenken und blockieren das System an der Stelle auch ein bisschen. Da muss man auch diskutieren, inwieweit man diese Daten nutzen kann, um den wissenschaftlichen Fortschritt zu bedienen. Und die geschäftlichen Aspekte, das ist natürlich noch mal eine andere Dimension.
Moderation Aya Jaff:
Vielen Dank für die Ergänzung. Ich würde gern auch jetzt die Runde öffnen. Wenn Sie Fragen haben, gerne jetzt. Wir haben eine Frage.
Gast Publikum:
Ich habe eine Frage zur German Angst. Das Bundesdatenschutzgesetz ist 1977 rausgekommen. Da war ich ein Jahr alt. Ist das heute auch einfach antrainiert? Jeder Schüler lernt es, jedes Kind lernt es. Mit Daten umzugehen, ist das auch in unserer Gesellschaft einfach so, dass das erlernt wird und zu einer German Angst führt?
Prof. Dr. Peter Dabrock:
Vielleicht nutze ich das gleich als Schlusswort für mich, weil ich einfach meine Gäste oben nicht warten lassen will. Vielen Dank, weil ich das wirklich eine tolle Diskussion finde. Ich glaube, was Sie ansprechen, ist wirklich genau das, was sich gut ergänzt zu dem, was Joachim Hornegger gerade gesagt hat. Ich meine, und auch was Florian Höhne gesagt hat, ich fand es noch mal eine gute Differenzierung. German Angst und Bedenken eben noch mal, ja. Ich kann mir zwar vorstellen, dass es kulturell bestimmte Gegenden gibt, in denen die Bedenken eher kommen. Und dann fragt man, wo liegt das dran? Aber das Innovation und Vorsichtsüberlegungen Hand in Hand gehen können, verantwortungsvoll Hand in Hand gehen können, das ist eigentlich eine wahnsinnige Stärke, die wir haben. Ich glaube, wir haben sehr gelernt, dass man dann trotzdem auch mutig sein kann. Wir sollten Innovation, Verantwortung, Vorsichtsgefühl mit einer Fehlerkultur verbinden. Also was wir gehört haben hier aus Amerika eben, dass man beim dritten Mal eben erfahrener Gründer ist. Da, glaube ich, brauchen wir einfach einen kulturellen Wandel in den Köpfen. Und wir müssen bereit sein, Dinge dann auch mal neu zu denken. Also dass wir statt von Datenschutz vielleicht von Datensouveränität mehr sprechen. Also dass wir die Datensubjekte als Co-Manager ihrer Daten begreifen. Wenn wir so etwas machen, dann wären wir eigentlich offen für das, was im globalen Wettbewerb ist. Und das müssen wir sein, weil wir haben nichts anderes, außer dem, was wir hier im Kopf und in den Händen haben. Weil Bodenschätze und sonst was haben wir nicht. Also deswegen kriegen wir das eigentlich nur hin, wenn wir tatsächlich auch was tun, aber das verantwortungsvoll.
Moderation Aya Jaff:
Danke schön für dieses tolle Schlusswort. Das hat es gut zusammengefasst. Danke, dass ihr dabei wart. Damit ist die Podiums-Diskussion beendet. Dankeschön.