Starke und schwache künstliche Intelligenz.

Starke und schwache künstliche Intelligenz.

Künstliche Intelligenz (KI) – wer denkt da nicht an Hollywood Blockbuster mit menschgleichen Maschinen. Aber es braucht die Traumfabrik gar nicht, um KI zu erleben. Suchanfragen bei Google reichen.

Von Willem G. van der Touw, MSc & Oliver Glitz

Auf den ersten Blick scheinen die menschgleichen Maschinen der Filme nichts mit den Suchanfragen und den damit verbundenen Korrekturvorschlägen bei Google gemeinsam zu haben. Und doch basieren beide auf künstlicher Intelligenz. Der entscheidende Unterschied ist, dass die menschgleichen Maschinen auf starker künstlicher Intelligenz beruhen und somit wirklich intelligent sind, die Suchanfragen hingegen nur auf schwacher Intelligenz und somit diese nur simulieren . Warum aber wird zwischen schwacher und starker künstlicher Intelligenz unterschieden? Das ist eine Folge der Anwendungsbereiche, in denen die künstliche Intelligenz eingesetzt wird. 

Schwache künstliche Intelligenz.

Die schwache künstliche Intelligenz wird in der Regel mit konkreten Anwendungsproblemen betraut, bei denen es nicht auf logisches Denken, treffen von Entscheidungen oder gar Bewusstsein ankommt. Sie dient dem Menschen in erster Linie als Informationslieferant, auf welchem er seine Entscheidungen aufbaut. Dies umfasst beispielsweise folgende Gebiete:

  1. Expertensysteme
  2. Navigationssysteme
  3. Spracherkennung
  4. Zeichensteuerung
  5. Korrekturvorschläge beim Suchen

Starke künstliche Intelligenz.

Dass der Übergang zwischen schwacher und starker künstlicher Intelligenz fliessend sein kann oder zumindest Fragen zur genaueren Definition aufwirft, zeigt das Beispiel der autonom fahrenden Autos. Sie werden der schwachen künstlichen Intelligenz zugerechnet, obwohl sie einige der folgenden Punkte starker künstlicher Intelligenz erfüllen:

  1. Logisches Denken
  2. Treffen von Entscheidungen bei Unsicherheit
  3. Planen
  4. Lernen
  5. Kommunikation in natürlicher Sprache

Setzt nun eine künstliche Intelligenz alle oben genannten Fähigkeiten zum Erreichen eines gemeinsamen Ziels ein, so rechnet man sie auf jeden Fall der starken künstlichen Intelligenz zu. Das können oder machen autonom fahrende Autos eben nicht. Zudem sind sie auf der anderen Seite weit davon entfernt: 

  1. Bewusstsein
  2. Selbsterkenntnis/Eigenwahrnehmung
  3. Empfindungsvermögen
  4. Weisheit
  5. Gefühle

zu haben. Diese fünf Bereiche werden häufig mit (starker) künstlicher Intelligenz  in Verbindung gebracht. Noch ist es nicht geklärt, inwieweit diese Fähigkeiten miteinander zusammenhängen. Ob beispielsweise ein Bewusstsein notwendig ist, um logisch Denken zu können. 

Unabhängig davon spricht man von starker künstlicher Intelligenz, wenn eine Maschine die gleichen intellektuellen Fähigkeiten wie ein Mensch hat oder ihn darin sogar übertrifft. Es gibt eine Reihe von Tests , die helfen sollen, künstliche Intelligenz zu bestimmen. Doch viel interessanter sind die Möglichkeiten und Fortschritte, wie künstliche Intelligenz schon heute eingesetzt werden kann und wie sich unsere Zukunft diesbezüglich entwickeln wird. 

Nadine – oder ein Roboter wie du und ich.

Die Genfer Professorin Nadia Magnenat Thalmann zeigt mit dem Robot «Nadine », wie weit wir in Sachen künstlicher Intelligenz schon gekommen sind. Oder wie nah wir an den Fiktionen aus den Filmen wie «A.I. Künstliche Intelligenz» oder «I, Robot» bereits dran sind. 

Nadia Magnenat Thalmann ist Leiterin des Miralab an der Universität Genf und eine der führenden Robotik-Experten der Welt. Seit sieben Jahren ist sie zudem Direktorin des renommierten Institute for Media Innovation an der Nanyang Technical University in Singapur. Nadia Magnenat Thalmann hat eine Zwillingsschwester mit dem Namen Nadine. Nur ist Nadine nicht aus Fleisch und Blut, sondern ein Robot. Ein Robot, der einem zur Begrüssung fest die Hand schüttelt und mit dem man sich über Gott und die Welt unterhalten kann. 

Aber das ist noch lange nicht alles: Nadine gibt nie zweimal dieselbe Antwort und behält den Inhalt des Gesprächs beliebig lange im «Gedächtnis» – inklusive Name des Gesprächspartners und Details wie Nationalität, Wohnadresse, Familienangehörige usw. Darüber hinaus tasten Kamerasensoren das Gesicht des Gegenübers ab. Auf diese Weise erkennt Nadine deshalb nicht nur, mit wem sie spricht, sondern auch dessen aktuelle Gefühlslage. Als wäre das noch nicht genug, blinkt sie mit den Augen, schaut einen an, gestikuliert mit den Händen und kann sogar Gefühle simulieren. Das alles wirkt beinahe schon so natürlich, dass man bereits ein bisschen neidisch wird, sobald man erfährt, dass Nadine jede unserer Sprachen sprechen kann. Sie lernt diese in der Zeit, die es braucht, um das entsprechende Programm zu downloaden.

Unser Alltag wird immer intelligenter.

Robots wie Nadine zeigen uns, wo die Reise hingehen kann und sehr wahrscheinlich auch hingehen wird. Und das ist nur eine von vielen, vielen Möglichkeiten, wie uns künstliche Intelligenz im Alltag unterstützen und unser Leben angenehmer machen kann. Es gibt bereits etliche Lösungen, auf die wir vertrauen und auf die wir uns verlassen. Unser Alltag ist dadurch wesentlich intelligenter geworden. Wir sollten nur aufpassen, dass die künstliche Intelligenz nicht die einzige Intelligenz auf unserem Planeten wird.

 

28. November 2016

 – 0 Kommentare

Artikel teilen:


Kommentare

Keine Kommentare vorhanden.

Kommentieren

Pflichtfelder*