Mittwoch, 8. November 2017

Stephen Hawking warnt vor der künstlichen Intelligenz

Eines Tages wird die künstliche Intelligenz jenen Punkt erreichen, ab dem sie als eine neue Lebensform einzustufen ist und dann besteht die Gefahr, dass die Menschheit von Robotern abgelöst wird. Wie es dazu kommen könnte ist leicht erklärt. Irgendjemand wird eine künstliche Intelligenz schaffen, welche sich selbst verbessert und vermehrt.


Zwischen dem was ein menschliches Gehirn erreichen und jenem was ein Computer leisten kann gibt es kaum Unterschiede. Es wird wohl so sein, dass Computer die menschliche Intelligenz nachbilden und übertreffen können.

Die Vorteile wären, dass wir mit dieser Errungenschaft, alte Fehler korrigieren könnten. Möglicherweise gelingt uns sogar die Wiederherstellung der erheblich zerstörten Natur unseres Planeten. Vielleicht sind wir auch in der Lage Armut und Krankheiten zu besiegen. Es könnte aber sein, dass diese neu geschaffene künstliche Intelligenz lediglich dazu beiträgt, dass wenige Mächtige, eine Vielzahl von Menschen unterdrückt. Dies ist zwar kein schöner Gedanke aber nicht auszuschließen.

Damit die künstliche Intelligenz nicht zum schlimmsten Ereignis der Geschichte unserer Zivilisation wird, muss die Gesellschaft einen Weg finden, diese zu kontrollieren. Wie meinte der Physiker Stephen Hawking dazu? „Wir können nicht wissen, ob wir von der künstlichen Intelligenz unterstützt, ignoriert, gefüttert oder zerstört werden. Wir müssen uns darauf vorbereiten, dass die künstliche Intelligenz in der Lage ist die intellektuellen Fähigkeiten des Menschen zu überflügeln. Es könnte dazu führen, dass die Menschen ihre eigene Schöpfung nicht mehr kontrollieren und das eigene Schicksal nicht mehr bestimmen können.

In diesem Sinne aber ein Lob an das EU-Parlament! Es hat einen Resolutionsentwurf vorgelegt, welcher sich mit Empfehlungen an die EU-Kommission zur zivilrechtlichen Regelung im Bereich Robotik und künstliche Intelligenz befasst hatte. Im Resolutionsentwurf ist nämlich ein „Kill Switch“ für Roboter vorgesehen. Das bedeutet nix anderes als: wenn er durchdreht, wird er abgedreht.

4 Kommentare:

  1. Ich kenne mich da nicht so gut aus, und mich erschreckt es, wenn ich lese, irgendwann von einer Maschine kontrolliert/gesteuert zu werden. Überwacht werde ich davon ja wohl schon.
    Kill switch hört sich erst mal gut an, so als Not-Ausschalter. Aber ist das nicht naiv? Würde die Maschine nicht Wege finden, diesen Schalter zu umgehen?

    AntwortenLöschen
    Antworten
    1. Anthony Levandowski (Entwickler Google Street View sowie selbstfahrende Autos...) wurde im Sommer von Google hinausgeworfen – Grund: geklautes Know-How.

      Jetzt hat er in Kalifornien (hoch offiziell eingetragen) eine Glaubensgemeinschaft namens „Way of the Future“ gegründet. Als Anliegen von "Way of the Future" hat er angegeben, "die Verwirklichung einer Gottheit auf der Basis Künstlicher Intelligenz zu entwickeln und zu verbreiten" sowie "durch das Verständnis und die Anbetung der Gottheit zur Verbesserung der Gesellschaft beizutragen".

      Weiters :
      Die Aussicht auf die Singularität - die Zeit also, wenn die Künstliche Intelligenz der menschlichen überlegen ist und Maschinen selbst die Pläne übernehmen - hält Levandowski für erstrebenswert...

      Was den Resolutionsentwurf betrifft:

      Es ist nicht der Weisheit letzter Schluss, aber es freut mich, dass man sich darüber bereits Gedanken macht und nicht blauäugig und naiv ist.

      Löschen
  2. Will er nicht mal schlafen gehen der glaubt auch an äliens der sieht nur sein Haus und sein computer und glaubt die Welt zu verstehen.

    AntwortenLöschen
  3. Künstliche Intelligenz wird niemals eine sehle haben auch wie schlau er sonst sein mag.
    Zwischen Geist und Seele ist ein unterschied aber grosser. Die Seele ist unterbewusst sein und der Geist trainiert und programiert. Aber wir vertrauen unserem Intellekt mehr als unserer Seele. Egal welches Programm glaube Politik und vieles mehr jeder verteidigt sein eigenen Standpunkt ja wie ein Beschützer der Matrix.

    AntwortenLöschen