Es gibt keine Künstliche Intelligenz

Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.“ – Arthur C. Clarke

Vorbemerkung: Dieser Artikel ist stark von einem Artikel von Oren Etzioni auf Wired beeinflusst und der Erkenntnis geschuldet, dass ein solcher Artikel auch auf deutsch sehr nützlich wäre.

Der Hype um “Künstliche Intelligenz” (KI) ist längst im Mainstream angekommen. Beim WDR gibt es Thementage zu KI, Non-Profits wie das Betterplace Lab nehmen das Thema auf die Agenda, ZEIT ONLINE hat eine eigene Rubrik zu KI. Dabei geht die Berichterstattung, wie bei Hypes so üblich, nicht selten an der Realität vorbei. Deep Learning ist in aller Munde und glaubt man der Werbung denken kognitive Computer wie IBMs Watson längst wie Menschen. Was bedeutet es, wenn Computer plötzlich hoch komplexe Spiele wie Go besser beherrschen als Menschen? Als jemand, der täglich mit den Algorithmen praktisch arbeitet, die „Künstlicher Intelligenz“ zugrunde liegen, halte ich es für angebracht, einmal in einfachen Worten klarzustellen was eigentlich der Stand der Technik bei „Künstlicher Intelligenz“ ist. Das Grundprinzip findet dabei auch in komplexen Anwendungen wie selbstfahrenden Autos oder der Spracherkennung in Googles und Apples Smartphones Anwendung.

Man spricht bei den verwendeten Algorithmen auch von maschinellem Lernen. Am weitesten erforscht und eingesetzt wird dabei das überwachte Lernen (supervised learning). Um solche Algorithmen für ein Problem anwenden zu können muss es heruntergebrochten werden (vgl. Etzioni) in:

  1. eine Zielfunktion: diese ordnet einem Eingabedatum (z.B. einer Repräsentation der Steine, die auf einem Go-Brett liegen) einen Ausgabewert zu (z.B. den nächsten nächste Zug im Go-Spiel, das durch die Eingabe repräsentiert wird),
  2. Trainingsdaten: eine Menge Eingabedaten für die der gewünschte Ausgabewert bekannt ist (z.B. viele Go-Spiel-Bretter und der nächste Zug, den ein menschlicher Go-Spieler getätigt hat),
  3. eine Datenrepräsentation: Eine Darstellung der Realität in einer für den Algorithmus verarbeitbaren Form (z.B. die Darstellung eines Go-Feldes als eine Matrix mit den Zahlen 0=kein Stein, 1=weißer Stein, 2=schwarzer Stein),
  4. einen Lernalgorithmus: dieser versucht eine Annäherung der Zielfunktion durch die gegebenen Trainingsdaten zu erreichen und
  5. einen Hypothesenraum: der Raum möglicher Funktionen, aus dem der Algorithmus auswählen kann (bei Deep Learning z.B. durch die Anzahl und Anordnung der „Neuronen“ festgelegt)

Auf Basis einer trainierten Zielfunktion kann ein System dann Entscheidungen treffen, wie bei einem gegebenen Go-Brett einen weiteren Zug zu spielen. Diese Beschreibung deckt einfache Algorithmen wie aus der Statistik bekannte Regressionen aber auch das komplexere Deep Learning ab.

Es ist wichtig zu verstehen, dass all diese Komponenten derzeit und auf absehbare Zeit für jedes einzelne Problem sehr sorgsam von Experten ausgewählt, getestet und so lange optimiert werden müssen, bis ein zufriedenstellendes Ergebnis erreicht wird. Dies erfordert substantielles Domänenwissen, um eine geeignete Zielfunktion und Datenrepräsentation zu finden, und viel Geduld, um den richtigen Lernalgorithmus zu finden. Außerdem stehen häufig zwar viele Eingabedaten bereit, es fehlt jedoch der gewünschte Ausgabewert. Diese Annotation der Trainingsdaten muss in vielen Fällen von Menschen mit großem Aufwand vorgenommen werden. Häufig vergehen Monate, manchmal Jahre, bis ein solches System gut genug ist, um es in einem Produkt (wie Apples Siri) zu verwenden.

Ebenfalls ist es wichtig zu verstehen, dass ein solches System weder seine Zielfunktion ändern kann, noch eine Funktion außerhalb seines Hypothesenraumes wählen kann. AlphaGo könnte nicht ohne substantielle menschliche Eingriffe lernen Schach zu spielen – es müssten mindestens Zielfunktion und Datenrepräsentation von Menschen angepasst werden und neue Trainingsdaten – ebenfalls von Menschen – zur Verfügung gestellt und aufbereitet werden. Wenn man genau ist, dann verwendet AlphaGo eine etwas andere Algorithmenklasse mit dem Namen Bestärkendes Lernen (Reinforcement Learning), bei dem statt annotierten Trainingsdaten eine Belohnungsfunktion zum Einsatz kommt, die einer Ausgabe im Nachhinein eine Belohnung oder Bestrafung zuordnet (z.B. wenn ein Go-Spiel durch einen Zug gewonnen wurde), wodurch die Strategie des Algorithmus nach und nach verfeinert wird. Auch hier gelten dieselben Beschränkungen durch die gewählte Zielfunktion, die Datenrepräsentation, etc.

Das was wir also heutzutage beherrschen und einsetzen und im Allgemeinen als „Künstliche Intelligenz“ präsentieren, sind im Wesentlichen Optimierungsalgorithmen. Wir können Probleme mit maschinellem Lernen nur dann lösen, wenn wir sie in eine für diese Optimierungsalgorithmen geeignete Form bringen können. Diese Übersetzungsarbeit werden auf absehbare Zeit menschliche Experten unter großem Aufwand betreiben müssen. Das erklärt, warum Computer immer noch große Schwierigkeiten haben, natürliche Sprache zu verstehen. Es ist ein ungelöstes Problem, eine geeignete Repräsentation für die Bedeutung von Sprache zu finden.

Dem Menschen ähnliche KI, wie es sich die Pioniere des Forschungsbereichs erhofft hatten, gibt es also (noch immer) nicht. Ob sich das je ändern wird und ob wir diese jemals erfinden werden, vermag ich nicht vorherzusagen. Ich halte es nicht für unmöglich, aber gehe nicht davon aus, dass ich es erleben werde. Dafür scheint das, was wir als „Künstliche Intelligenz“ verkaufen, viel zu weit weg von dem, was menschliche Intelligenz ist. Das heißt nicht, dass diese Art von Algorithmen nicht schon bald eine Menge weiterer Aufgaben übernehmen kann. Die Brille, durch die wie dabei schauen sollten, ist aber viel mehr die der Digitalisierung und Automatisierung. Apokalyptische Szenarien wie auch Utopien zu menschenähnlicher KI, die schon lange kursieren, scheinen vor diesem Hintergrund nicht wirklich näher als vor 20 Jahren. Statt uns mit falschen Ängsten oder falschen Erwartungen verrückt zu machen, sollten wir mit nüchternem und kritischem Blick die wirtschaftlichen und sozialen Chancen sowie die ethischen Herausforderungen von maschinellem Lernen betrachten und jede Entscheidung mit der gebotenen Besonnenheit treffen. Anders gesagt: Don’t panic.

392 mal gelesen



Autor/in

Daniel Kirsch E-Mail: Nachricht schreiben Twitter Profil

Daniel Kirsch ist Mathematiker mit einem Diplom der WWU Münster und arbeitet…

Kommentare

  1. / von Jens Haase

    Vielen Dank für den Artikel. Eine Anmerkung noch: Ich glaube das wir einen Computer oder Roboter nie als künstlichen Intelligenz ansehen werden. Das Problem ist hier, dass der Begriff der Intelligenz sehr wandelbar ist. Heutzutage ist Intelligenz immer mit etwas verbunden, das wir nicht wirklich verstehen. Sobald wir aber „künstliche“ Intelligenz erschaffen haben wir die Funktionsfähigkeit ja bereits verstanden und uns scheint als wäre das Problem „trivial“.
    Beispiel: Heute würde kaum jemand sagen das Google oder Siri künstliche Intelligenzen sind. Hätte man aber jemanden vor 100 Jahren erzählt was mit Google und Siri möglich ist, wäre es wohl als künstliche Intelligenz aufgefasst worden.

  2. / von Ulli Pesch

    Das klingt ja alles sehr technisch – und für Laien eher nicht so richtig gut verständlich.
    Aber was ist denn dann mit dem Umstand, dass Alphabet (Google) und die Oxford Universität zurzeit versuchen, einen Mechanismus/Algorithmus oder etwas „Ähnliches“ zu entwickeln, der dafür sorgt, dass sich „autonome Maschinen“ nicht gegen Menschen richten?
    Die machen das sicher nicht, weil sie gerade nichts Anderes zu tun haben, oder?

    Oder das hier?

    https://www.youtube.com/watch?v=UIWWLg4wLEY
    (vorausgesetzt, das ist kein Fake)

    Und was ist mit dem Thema Singularity, das, in den USA zumindest, bereits weite Kreise zieht?

    1. / von Daniel Kirsch
      zu

      Hallo Ulli,
      genau darum habe ich den Artikel geschrieben, um solche Ängste und insb. die „Church of Singularity“ in eine realistische Perspektive zu rücken. Schade, dass es immer noch zu technisch zu sein scheint. Dass das Thema gerade so viel Wind hat, hat sicher unterschiedliche Gründe. Die aktuellen Erfolge von Deep Learning erzeugen eine große Euphorie. Gleichzeitig ist das Feld für Laien so schwer verständlich, dass die Phantasie die Lücken füllen muss. Wir stellen uns künstliche Intelligenz wie menschliche Intelligenz vor, mit derselben Autonomie und denselben Generalisierungsfähigkeiten. Das ist aber nicht richtig. Künstliche Intelligenz ist etwas sehr anderes (so weit wir das bisher beurteilen können – wir haben menschliche Intelligenz noch nicht besonders gut verstanden). Was künstliche Intelligenz im wesentlichen ist, habe ich im Artikel beschrieben. Ich behaupte, dass von da aus noch ein weiter Schritt zu menschlicher Intelligenz.

      1. / von Ulli Pesch
        zu

        Tja, das hat leider aber nicht meine Fragen beantwortet… Warum arbeiten Google und die Oxford Universität an einem Verfahren, das verhindern soll, dass sich autonome Maschinen gegen Menschen richten?

        Wir können das Thema Singularity vielleicht ausklammern, auch wenn Ray Kurzweil hier massiven Einfluss ausgeübt hat. Und DER ist kein Spinner (auch wenn ihn Manche vielleicht dafür halten – und selbst wenn er es sein sollte): wenn Regierungen ihn als Berater engagieren (angeblich sind mehr als 100 seiner Prognosen zutreffend), dann ist das Realität. Und wenn Regierungen das zu ihrer eigenen Realität machen.
        Und ob es hier um Algorithmen geht oder nicht, spielt m.E. letztlich überhaupt keine Rolle. Es gehören zum Teil auch Visionen dazu. Und davon hat man in Deutschland eher zu wenige als zu viele.
        Mathematik alleine ist dabei, so wie ich das sehe, nicht entscheidend. Es geht (bald) nicht mehr um Logik, Zahlen, Formeln und Striche…
        Natürlich kann eine „Church“ nie dem Anspruch dessen gerecht werden, was sie versucht, zu vertreten. Das liegt auch ein wenig an der eher deskriptiven Sprache des Angelsächsischen – und ist für uns deshalb leicht etwas missverständlich.
        Ich bin KEIN Befürworter irgendwelcher Phantasien – erst recht nicht wenn sie aus dem US-amerikanischen Kulturraum kommen. Letztlich ist es aber so, dass von dort die Innovationen kommen, was das Thema Digitalisierung angeht. Da ist man in Deutschland m.E. auf einem anderen Niveau – Welten liegen dazwischen.
        Und letztlich gilt: es ist völlig gleichgültig, ob man das gut findet oder nicht – es passiert. Und genau damit müssen wir uns auseinandersetzen. Da hilft Mathematik meiner Ansicht nach nur sehr eingeschränkt.
        Das ist auch ein wenig der Vorteil der US-Amerikaner – dort wird nicht so sehr „verkopft gedacht“ – man tut einfach. Das ist ein erheblicher Unterschied: dabei ist es völlig gleichgültig, ob es um eine Apple, Microsoft, Intel oder IBM, um Uber, Google oder Facebook oder um autonomes Fahren oder die Elektroautos von Elon Musk geht (übrigens, das nebenbei, kommen die Produktionsstraßen für die Batterien aus Deutschland).
        Solange man in Deutschland auf theoretischen Konstrukten „herumkaut“, läuft gar nichts. Es gibt ganz, ganz wenige Ausnahmen – SAP beispielsweise. Und wenn die Fraunhofer Leute beim Erfinden des MP3-Standards nicht so verkopft gewesen wären, wäre das eine weitere wirtschaftliche Erfolgsstory gewesen.
        Die US-Amerikaner (und mittlerweile auch die Chinesen und die Inder mit ihrer exzellenten Ausbildung, vor allem im Bereich der Robotik) laufen den Deutschen und den Europäern auf und davon – da werden Milliarden investiert. Da kommt ganz schnell sowas wie künstliche Intelligenz bei raus – ganz gleich wie man das versucht, zu erklären. Und: künstliche Intelligenz ist das, was daraus gemacht wird. Völlig egal, was es letztlich ist…

  3. / von Ulli Pesch

    …ach so, ja, es geht garnicht um Ängste… bei mir zumindest nicht…

Kommentar verfassen