Wie Künstliche Intelligenz unser Leben verändert.
Walldorf. Schon die Einladung führte mitten ins Thema hinein: „Ist der Einladungstext, den Sie gerade lesen, vom Punkt-7-Team erarbeitet oder von einem Algorithmus zusammengesetzt?“ Beim Diskussionsforum der Evangelischen Kirchengemeinde Walldorf ging es um Künstliche Intelligenz (KI), ein Thema, das den Walldorfern im wahrsten Sinne nahe liegt. Matthias Kaiser, selbst seit 21 Jahren beim Walldorfer Softwarehersteller tätig, begrüßte den Referenten Guido Wagner, einen Experten für Digitale Ethik, der bei der SAP an KI Projekten mitarbeitet. Im Zentrum der Diskussion stand die Frage: Wer trägt die Verantwortung, wenn Entscheidungen an Computerprogramme delegiert werden?
Doch zunächst ging es darum, den Gegenstand näher zu fassen. Intelligenz gilt als das schnelle Lernen aus Erfahrung. Von Künstlicher Intelligent (KI) spricht man, wenn Systeme selbständig lernen und Entscheidungen treffen. Die Programme oder Algorithmen der KI werden durch große Datenmengen trainiert und verbessern sich dadurch selbst. Sie treffen Entscheidungen aufgrund von Wahrscheinlichkeiten oder erlernten Fakten-Mustern. Wagner nannte als Beispiele für heutige Anwendungen individuell zugeschnittene Werbung, den Finanzhandel, Cyber-Attacken und die Entwicklung autonomer Waffen.
Und er wies auch auf Gefahren und Fehlentwicklungen hin. Chat-Bots die rechtsradikal werden zum Beispiel oder Flugpreise, die nach einem Hurrikan durch die Decke gingen. Der IT-Experte machte deutlich: Maschinen können Notlagen nicht erkennen und den Kontext nicht erfassen.
Sozialpädagogin Antje Valouch vom Punktsieben-Team erfährt bei ihrer Arbeit, dass viele Menschen Ängste entwickeln. „Was passiert im Miteinander, wenn ich nicht mehr weiß, ob ich mit einem Menschen oder mit einer Maschine spreche?“, fragte sie. Den Profit sah sie nur bei den Firmen. Am Ende geht es den Firmen darum, Geld zu verdienen, bestätigte Wagner. Doch wie Kühlschränke oder Kaffeemaschinen könne auch KI im Alltag nützlich sein. Die Arbeitswelt verändere sich, aber es entstünden auch neue anspruchsvolle Jobs. „Heute möchte keiner mehr der Pferdeäpfel-Aufsammler hinter der Kutsche sein“, sagte er. Fragen der sozialen Absicherung wies er der Politik zu und räumte dabei ein: „Umverteilung wird ein Problem sein.“
Ob ‚Alexa‘ und ‚Siri‘ sich dumm stellen, damit wir keine Angst vor ihnen haben, fragte sich der 21-jährige Informatik-Student Jonas Lehmann und äußerte die Sorge: „Was können wir tun gegen große Server, wenn die KI zu mächtig ist?“ Wagner antwortete mit einer Anekdote. Ein Kollege habe ihm sein neues Auto gezeigt und mit ihm über Flaschenhalter für den Rücksitz gesprochen. Am nächsten Tag habe er Werbung für Flaschenhalter auf seinem Account vorgefunden. „Wir werden an ganz vielen Stellen beobachtet, ohne es zu wissen“, stellte er fest. Selbst aus den Handy-Bewegungen in der Hosentasche würden Rückschlüsse auf den Nutzer gezogen.
Dass die Wirtschaft gegen Regulierung sei habe man bei der Auseinandersetzung um die Datenschutz-Grundverordnung gesehen, bemerkte Stefan Karcher, Wissenschaftlicher Mitarbeiter an der Theologischen Fakultät Heidelberg, der im ‚Interdisziplinären Forum digitaler Textwissenschaften‘ engagiert. Wirtschaftlichkeit vertrage sich nicht mit Ethik, bemerkte er und fragte nach den Entscheidungen, die KI trifft. Wer übernimmt die Verantwortung? Wer haftet?
Das sei keine Aufgabe für Entwickler der Software, entgegnete Wagner. Das müsse der Gesetzgeber entscheiden. „Ist es nicht etwas einfach, über Ethik zu diskutieren und die Verantwortung nicht zu übernehmen?“, hakte Karcher nach.
Wagner betonte, das Abgeben von Kontrolle sei die Voraussetzung, dass es KI gibt. Die Frage sei: Wer erzieht sie? Wer bringt ihr die Werte bei? Die Historie der Software zeige, dass die Ethik immer erst nachträglich aufgepfropft wurde „Bei der KI müssen wir vorab sicherstellen, dass Ethik eingebaut wird. Es könnte sonst zu spät sein.“
Die SAP hat als erstes europäisches Technologieunternehmen eigene Leitlinien für KI entwickelt und einen externen Beirat für den ethischen Umgang mit künstlicher Intelligenz geschaffen. Vertreten ist das IT-Unternehmen außerdem in einer im Juni 2018 von der Europäischen Kommission ernannten Expertengruppe, die in Kürze eine europäische Strategie für künstliche Intelligenz erarbeiten und ethische Richtlinien zu den Themen Fairness, Sicherheit, Transparenz, Arbeitswelt der Zukunft und Demokratie vorschlagen soll. Anwender sollen zum Beispiel wissen, ob sie es mit Menschen oder mit Maschinen zu tun haben.
Aus der Rhein-Neckar-Zeitung vom 22.3.2019