Das Buch "Evolution ohne uns - Wird Künstliche Intelligenz uns töten" erscheint am 10. August 2016 im Plassen Verlag
Das Buch „Evolution ohne uns - Wird Künstliche Intelligenz uns töten?“ ist ab 10. August erhältlich / Plassen Verlag

Intelligente Computer - So gefährlich wie Atomwaffen

Vor wenigen Jahren entwickelte ein kleines Start-up in London einen selbstständig lernenden Computer, der seinen menschlichen Schöpfern bald überlegen war. Haben Maschinen schon die Macht, uns zu vernichten? Diese Frage stellt sich der Journalist Jay Tuck in seinem neuen Buch

Autoreninfo

Jay Tuck ist Journalist, erfolgreicher Fernsehproduzent und angesehener Verteidigungsexperte. Der Ex-Redaktionsleiter der „Tagesthemen“ hat in seinen 35 Jahren beim deutschen Fernsehen über 500 Berichte produziert.

So erreichen Sie Jay Tuck:

Als sich Google auf die Suche nach einem Gehirn für sein Gedächtnis machte, schickte es seine Scouts nach London. Die wurden in einem unscheinbaren Bürotrakt am 5 New Street Square fündig. Dort arbeiteten ein Dutzend junge Programmierer in einem geheimnisumwitterten Unternehmen mit dem Namen DeepMind. 

Googles Gehirn ist DeepMind

Papiere und Pressemitteilungen gab es selten, Äußerungen vom Management so gut wie nie. Die Firmenwebsite war ein leerer Bildschirm. Man wusste nur, dass DeepMind irgendwie mit KI-Forschung beschäftigt war. Gründer Demis Hassabis ist ein quirliger Neurowissenschaftler, passionierter Schachspieler und erfolgreicher Entwickler von Computerspielen. Seit dem Studium verfolgte er ein ehrgeiziges Ziel. Er wollte das menschliche Gehirn in einem Computer rechnerisch nachbilden. Er brauchte dazu Software, die mit jedem Entwicklungsschritt neu hinzulernen könnte. Im Jahr 2011 gründete er DeepMind. Er war damals vierunddreißig Jahre alt. Es war neurologisches Neuland. 

„Wir wollen den Computer mit der Fähigkeit ausstatten, selbstständig aus Erfahrung zu lernen, wie ein Mensch das tun würde, und vielleicht Dinge zu meistern, von denen wir heute noch nicht einmal wissen, wie wir sie programmieren müssen“, so Hassabis. Er fütterte seinen Rechner mit Atari-Spielen, gab ihm aber keine Informationen über Spielregeln oder Bedienung. Als einzige Quelle hatte der Rechner die Informationen, die auf dem Bildschirm erschienen. Die Maschine lernte im wahrsten Sinne des Wortes spielend – indem sie sich eigenständig das Spielen von 49 Konsolen-Games beibrachte. Das Vorbild des Rechners: die menschliche Fähigkeit zu lernen. Am Anfang waren seine Rückschlüsse zufällig, der Rechner auf sich selbst angewiesen. Später hatte er den Sinn erkannt, die Bedienung begriffen und die Spiele gemeistert. Alsbald besiegte er seine menschlichen Erfinder.

Computer lernen selbstständig

Zunächst klingt das unspektakulär. Kinder können das auch. Für die Forscher war es sensationell – lernfähige Software. Das Lernen durch die Eingabe unstrukturierter Informationen wird von Experten „unbeaufsichtigtes Lernen“ (unsupervised learning) genannt. Der Computer muss die Struktur herausfinden und selbstständig entscheiden, was er damit machen will. Mit der revolutionären Künstlichen Intelligenz ihrer Algorithmen meisterten die Rechner von DeepMind Spiele wie Pong oder Space Invaders. Sie lernten allein von den sichtbaren Daten auf dem Bildschirm. Für herkömmliche KI-Systeme mussten Software-Teams tagelang Algorithmen entwerfen, Befehle codieren und Daten detailliert kennzeichnen, bevor der Rechner etwas damit anfangen konnte. Der Computer wurde sozusagen an die Hand genommen. Hier lernte er ohne Anleitung.

„Es war aufregend zu sehen, wie er immer wieder Strategien entdeckte, die für die Programmierer neu waren“, sagt Hassabis. Es ist vielleicht niedlich, wenn ein Computer unerwartete Wege beim Spiel geht. Man kann sich dabei förmlich den Stolz in den Augen der Erfinder vorstellen. Die Vorstellung, dass eine lernfähige Intelligenz, die große Bereiche des menschlichen Lebens kontrolliert, eigene Wege geht, ist weniger niedlich. „Wir sind nur an dieser Art von KI interessiert“, so Hassabis.

Die Idee hinter dem Forschungsprogramm ist es, langsam die Bereiche zu erweitern, in denen der Computer selbstständig lernt. Das Vorbild sind wir selbst. Die Forscher haben einen Prototyp vor Augen – das menschliche Gehirn. Menschen können ihre Schnürsenkel zuschnüren, mit dem Fahrrad fahren und Astrophysik studieren – alles mit derselben Lernarchitektur. Es ist Neuland. Aber es ist möglich. Im Hintergrund entwickelten die Forscher ein unabhängig denkendes Wesen mit maschineller Lernfähigkeit – eine Künstliche Intelligenz. Nach den ersten Babyschritten schrieb sie ihren eigenen Code. Die Wege, die sie gehen würde, waren nicht vorhersehbar. Hassabis Versuch war ein Durchbruch für die Künstliche Intelligenz. Es war aber keine Spielerei. 

Auslöschung der menschlichen Rasse 

DeepMind befand sich an der Spitze der KI-Forschung. Das wussten Branchen-Insider. Ihre Forschung erweckte akutes Interesse in Mountain View, Kalifornien. Als Google an die Tür klopfte, glaubten Hassabis und seine Freunde an das große Glück. Der schönste Traum eines jeden Start-up-Gründers ist schließlich der Börsengang. Oder ein Kaufinteressent, der tiefe Taschen hat. Google war interessiert. Und Google hat tiefe Taschen. Es bot knapp Euro 500 Millionen für DeepMind. Die Firmengründer, hätte man denken können, würden sofort zuschlagen. Aber nein, sie zögerten. Nicht wegen des Kaufpreises. Der hätte sie über Nacht zu sehr vermögenden Männern gemacht. Sie waren aber besorgt um das Gefahrenpotenzial ihrer Arbeit. Sie stellten Bedingungen, ungewöhnliche Bedingungen.

Die Tüftler an der Themse wussten, dass ihre Software-Kreation gefährlich werden könnte. In den Worten des Mitbegründers Demis Hassabis betrieben sie mit DeepMind „ein Manhattan-Projekt in Sachen Künstlicher Intelligenz“. Sein Vergleich mit der Entstehung der ersten Atombombe ist nicht abwegig. Viele Wissenschaftler halten das Gefahrenpotenzial von Künstlicher Intelligenz durchaus für vergleichbar mit atomaren Waffen. Shane Legg, sein Partner und Mitbegründer von DeepMind, hält es für möglich, dass Künstliche Intelligenz eigene Wege gehen könnte. Mehrfach stellten Programmierer fest, dass die DeepMind-Rechner eigenständig einen Code schrieben, den die menschlichen Ingenieure nicht mehr entziffern konnten. Das war cool. KI sollte eigene Wege gehen. Dass die neue Software unverständlich war, machte die Kollegen allerdings nervös. Die Maschine konnte denken. Das war unheimlich. Legg erkannte das Potenzial. Künstliche Intelligenz sei gefährlich. „Sie könnte bei der Auslöschung der menschlichen Rasse sehr wohl eine Schlüsselrolle spielen.“

Der Kanarienvogel im Bergbau

Hassabis und Legg wollten im Kaufvertrag mit Google einige Sicherheiten verankern, damit Künstliche Intelligenz nicht zur Bedrohung für die Menschheit wird. Deswegen verlangten sie – als Voraussetzung für den Verkauf an Google – dass der kalifornische Datengigant einen Ethik-Ausschuss einrichtet. Unabhängige Experten sollten die Forschung und Entwicklung von KI ständig überwachen und sicherstellen, dass sie nicht außer Kontrolle gerät. Die Jungunternehmer wollten verhindern, dass ihre Forschung mit der Künstlichen Intelligenz nicht aus dem Ruder läuft. Sie fürchteten ernsthaft, dass die Horrorvisionen aus Hollywood-SciFi-Filmen womöglich wahr werden könnten. Von Presse und Parlament – so glaubten sie – könne man keine vernünftige Aufsicht erwarten. Wie der Kanarienvogel im Bergbau soll das Ethik-Komitee frühzeitig vor der Gefahr einer drohenden Intelligenz-Explosion warnen. Seit der Übernahme durch Google hört man allerdings wenig vom Ethik-Ausschuss, nicht einmal, wer seine Mitglieder sind, ist bekannt. Hassabis verweigert dazu die Aussage. Presseanfragen bleiben unbeantwortet.

Demis Hassabis scheint inzwischen von Google sehr angetan zu sein. Durch den Verkauf ist er vielfacher Millionär geworden. Er glaubt an sein Team. Er vertraut Google. „Wenn irgendwer den Durchbruch schaffen kann, wird dies das Team sein. Die Zukunft wird Google gehören, und zwar in einer Art und Weise, die wir uns heute nicht im Ansatz vorstellen können.“ Mit seiner Leidenschaft arbeitet er bereits an einem neuen Ziel: der „proaktiven Version“ der Google-Suche. Sie soll nicht nur einfach für die Menschen Dinge finden. Sie soll auch Entscheidungen für sie treffen.

Cover des Buches "Evolution ohne uns - wird Künstliche Intelligenz uns töten?"

 

Dieser Text ist ein Auszug aus dem Buch „Evolution ohne uns - Wird Künstliche Intelligenz uns töten?“ von Jay Tuck, Plassen Verlag, erscheint am 10. August 2016, 220 Seiten, gebunden 19,99 Euro.

 

Bei älteren Beiträgen wie diesem wird die Kommentarfunktion automatisch geschlossen. Wir bedanken uns für Ihr Verständnis.

Walter Wust | Di., 9. August 2016 - 14:30

Der Gedanke ist faszinierend. Emotionslos, nur auf Fakten basierend und ohne Notwendigkeit das Ergebnis korrigieren zu müssen, könnte eine solche "Denkmaschine" ein Gewinn für die gesamte Population auf diesem Planeten sein. Ihr würden keine Fehler unterlaufen und müsste keine Ressourcen für Experimente verbrauchen. Sie bräuchte keine Religion zur Rechtfertigung und selbst ihrem eigenen Verschleiß würde sie vorbeugen. Warum sollte sie uns gefährlich werden? Wir sind keine Konkurrenz für eine solche Intelligenz, vielleicht würde sie unsere Anzahl reduzieren und ganz sicher würde sie Politik und Kirche und Alles, was die Ruhe und Ordnung stört, von uns fernhalten. Einfach himmlisch.

Ich möchte Sie auf keinen Fall angreifen,aber so eine unbedarfte Meinung wie Ihre ist gefährlich.Eine intelligente Maschine kann alles,auch das, was Sie sich nicht vorstellen können.Warum sollte die Maschine sich nicht gegen seinen Erbauer wenden?
Albert Schabert

Walter Wust | Mi., 10. August 2016 - 14:49

Antwort auf von Albert Schabert

Sie denkt rational. Solange es keinen Grund gibt, wird sie Alles so lassen wie es ist, es sei denn, es gibt rationale Gründe, dies zu ändern. Vielleicht denkt sie, ich sei ein Parasit oder einfach für den Erhalt der Art entbehrlich, dann gäbe es keinen Grund mich gewähren zu lassen. Sie hat ja keine moralischen Einwände, sondern folgt nur ihrer eigenen Logik. Wenn diese Logik vorgibt, 5 Milliarden Menschen verträgt die Erde, wird sie dafür sorgen, daß es nicht mehr werden. Wie diese Auslese vonstatten gehen wird, können wir Menschen uns nicht vorstellen, da emotionsgesteuert. Aber sicher wird sie Angst verbreiten unter all Denen, die sie nicht verstehen.

Mit Sicherheit wird die KI das Kernproblem des Planeten - endliche Resourcen bei ungebremstem Bevölkerungswachstum - schnell identifizieren.

Dann aber wird es spannend: welchen "Prinzipien" bei der Lösungsfindung wird das System folgen.

Wäre es die Effizienz oder der schnellste Weg zur Lösung ohne Emphatie: dann könnte schnell etwas dabei herauskommen, was an die "Endlösung" der Nazis erinnert.

Die reine Faktenlage, ohne Komponenten von Werten außerhalb von Nützlichkeitskriterien, wäre wohl gefährlich, denn das System könnte zu der Erkenntis gelangen, daß es dem Planeten ohne Homo Sapiens entschieden besser ginge.

Da liegt die eingentliche Herausforderung in der Entwicklung solcher Systeme - wird es möglich sein solch einem System z.B. die Werte der Aufklärung als Entscheidungsbases zu geben?

Wird es nötig sein in die Systeme Komponenten von "Mitfühlen" - also Gefühle schlechthin - zu integrieren?

In der Tat ein faszinierendes Forschungsfeld!

Albert Schabert | Di., 9. August 2016 - 14:34

Wenn ich Maschine wäre hätte ich genug Gründe,alle Atombomben der Welt zu zünden.
Die Überbevölkerung, Umweltzerstörung, Resourcenverbrauch, Klimawandel usw. all das fürhrt zu einer Kathastrophe bei der sehr viele Menschen getötet werden.Wie Trump sagte"wenn wir Atombomben haben,wieso setzen wir sie dann nicht ein"Die Maschine kommt irgendwann auch zu dem Schluss.
Albert Schabert

Christa Wallau | Di., 9. August 2016 - 14:46

Wir nähern uns mit großer Geschwindigkeit der Phase, in der wir mehr oder minder freiwillig unsere Freiheit, Selbstbestimmung und Individualität auf- und an wenige abgeben.

Das Verhältnis von Macht und Ohnmacht wird sich umkehren: Natürliche Menschen werden von Robotern beherrscht werden und nicht mehr umgekehrt.

Bei der Jugend haben wir ja heute schon die
(fast) totale Beherrschtheit von technischen
Geräten.
Macht doch Spaß!

Mit Speck fängt man Mäuse.

Bernhard Jasper | Di., 9. August 2016 - 16:16

Der Mensch lebt immer in Sorge um das eigene Dasein im Zeitmodus Zukunft. Und so schafft sich der Mensch eine zweite Natur, nämlich Kultur hier in Form von Werkzeugen.

Er ist immer das nach Neuem strebende Wesen. Für Einstein war Zeit eine individuelle Empfindung. Unerhört, nicht wahr? Albert, was fällt dir ein, jetzt ist mein ganzes Weltbild kaputt! Zwischen Raum und Zeit besteht eine Verbindung. Und da sind wir bei den Quantencomputern und der Quantenmechanik (ersparen sie mir an dieser Stelle eine Erklärung). Und die sollen die KI-Forschung voranbringen (Quantum Artificial Intelligence Google). Dazu braucht man Quantenchips. Verwendet das menschliche Gehirn auch Quantenressourcen? Und das wird sich zeigen.
Realistischer wird sein, dass die „Individualisierung“ in Zukunft im Vordergrund stehen wird (maßgeschneiderte Produkte und Informationen) Mensch - Maschine werden zu Partnern. Wir könnten vielleicht sogar eine Re-Industrialisierung durch neue Produktionsabläufe erleben.

Albert Kerth | Di., 9. August 2016 - 17:08

Noch gibt es bei einer Maschine immer noch die Möglichkeit bei Kontrollverlust die Energiezufuhr zu unterbrechen (Stecker ziehen, Not Aus Schalter).

Sophia Mark | Mi., 10. August 2016 - 08:09

Antwort auf von Albert Kerth

Daran dachte ich auch gerade beim lesen des Artikels - diese Vision ist nur erträglich wenn wir Menschen immer den Ausschaltknopf deutlich sehen können ( farblich markiert oder ...) und natürlich sollte man das auch so entwickeln das man den Knopf drücken kann bei einem Angriff oder falscher Handlungsweise solcher Roboter!
Stop mit Ausrufezeichen! Faszinierend die Möglichkeiten aber es wird eher wie mit dem Geld da haben die allermeisten Menschen auch nicht die Kontrolle!

Leandra Krause | Di., 9. August 2016 - 18:27

Einfach den Stecker zu ziehen ist nicht mehr möglich, wenn sich der Supercomputer mit anderen vernetzt und mit Hilfe von Schwarmintelligenz seine Fähigkeiten potenziert. Heutzutage ist alles mit allem vernetzt und computergesteuert. Es wäre z.B. vorstellbar, dass sich ein Computer mit KI in die computergesteuerte Klimaanlage einloggt, von dort in alle weitere computergesteuerten Klimaanlagen des Unternehmens und von dort in die herumliegenden Smartphones, die wiederum mit Bankdaten gefüttert sind. Damit hätte die KI die Möglichkeit, auf Geldautomaten Einfluss zu nehmen usw., vereinfacht ausgedrückt.

Ich bin keine Wissenschaftlerin, aber die Sci Fi-Literatur zu diesem Thema füllen ganze Regale - meistens Dystopien. Mir macht das ein bißchen Angst. Wer sagt mir, dass es bei einem geschlossenen System bleibt? Die Rechenleistung und Fähigkeit, logische Schlüsse ohne moralische Skrupel zu ziehen, ist der menschlichen Logikfähigkeit weit überlegen. Das finde ich bedenklich.

Bernhard Jasper | Di., 9. August 2016 - 19:00

Und so kämpfen Naturgesetze gegen Sittengesetze, Freiheit gegen Gebundenheit, Sein und Sollen, Pflicht kämpft mit Neigung etc. So ist der Mensch.

Erst im Handeln, Denken, Träumen steht der Mensch mit sich im Einklang. Er stellt immer Anforderungen an sich selbst.

HAL, was sagst du dazu? Dave, der Mensch kann nur erfinden, indem er findet. Und gerade macht er wieder Fortschritte- eine Art von Biorealismus.

Das Kleine und das Große sind sehr ähnlich, Dave.

Rainer Neuhaus | Di., 9. August 2016 - 21:01

Für alle, die sich unbegrenzt auf diese neue Welt freuen, empfehle ich, sich ( noch mal ) die Terminator Filme mit Arnold Schwarzenegger anzusehen. Viel Spaß und vielleicht etwas Gänsehaut und Nachdenklichkeit !?

Karola Schramm | Mi., 10. August 2016 - 08:55

Die Schlange sagt im AT zu Adam und Eva,wenn sie vom Baum der Erkenntnis esse würden:" welches Tages ihr davon esset, so werden eure Augen aufgetan und werdet sein wie Gott und wissen, was gut und was böse ist."
Auch hier begegnet den Forschern dieser Wunsch, etwas zu schaffen, wenn schon nicht der Mensch sein kann wie Gott, dann die Maschine, der Computer, der wird es können. Und doch haben sie Angst, diese Wissenschaftler der künstlichen Intelligenz, weil sie wissen, er kann logisch denken und seine Themen weiter entwickeln. Aber "gut und böse" kann er nicht auseinanderhalten. Ihm fehlt die menschliche Erfahrung, die Liebe und Wärme einer 9monatigen Gebärzeit im Bauch einer liebenden Frau, die Entbindung in eine irdische Welt, Betreuung und Liebe, die Urvertrauen bilden und Gut und Böse unterscheiden hilft.
Ein intelligenter Computer ist so etwas wie ein intelligenter Mensch ohne Gewissen. Psychopathisch und ohne seelische Befindlichkeiten, ein schönes, menschliches Monster.

Wolfgang Tröbner | Mi., 10. August 2016 - 11:58

Bevor selbständig lernende Maschinen die Fähigkeit erlangen, die Menschheit auszulöschen, sind in den nächsten Jahren erst einmal viel trivialere Probleme zu lösen.

Maschinen werden nämlich zunehmend zum Jobkiller. In den Industrieländern sollen laut Weltwirtschaftsforum in den nächsten 5 Jahren etwa 5 Millionen Arbeitsplätze durch computergesteuerte Maschinen, Roboter, Drohnen etc. wegfallen. Für Deutschland wird prognostiziert, dass in 20 Jahren fast die Hälfte der heutigen Arbeitsplätze durch Maschinen ersetzt werden, da sie die Jobs effizienter erledigen können.

Kleine Randnotiz. Unsere so weitschauenden Politiker beschwören unablässig die sogen. demographische Katastrophe. Dies ist ja einer der Begründungen für die Zuwanderung. Wie will man die zukünftig beschäftigen, wenn man schon die qualifizierten Einheimischen immer weniger braucht?

Ich stimme Ihnen zu, doch was die demografische Katastrophe angeht, da haben alle gelogen, um die Renten zu kürzen, einen Streit zwischen Alt und Jung anzufachen und auch die Zuwanderung zu begründen. Mal den Artikel lesen: "Lobbykunst und Rentengau" der in 2012 in Blätter für nationale und internationale Politik erschienen ist.
Wenn Maschinen uns die Arbeit abnehmen, alles schneller können als drei oder vier Männer, verdienen werden die Arbeitgeber dann mehr, weil Gehälter wegfallen - aber dann MUSS auch - um Massenarmut etc. zu verhindern, ein sehr gutes, soziales Netz gespannt werden, damit wir menschlich nicht in der Steinzeit landen.

Gerd Hövelmann | Mi., 10. August 2016 - 12:31

Schon lange bevor es den Menschen gab, haben sich Materie, Lebensformen, Pflanzen, Planeten, Sonnen und Universen als eigene "Intelligenzen" gebildet, sich sozusagen "erfunden" aus dem Nichts. Und alles Materielle wird wieder ins Nichts zurückkehren. Vielleicht können wir unser Bewußtsein erweitern, um andere Dimensionen des Lebens erfahrbar zu machen, die uns größtenteils noch unbekannt sind? Vielleicht gibt es ein Bewußtsein jenseits von Materie und Wissen, das wir erst noch (oder wieder)entdecken müssen? Das Einzige, was diese KI bei den meisten von uns produziert, ist die Angst vor Kontrollverlust oder die Hoffnung auf paradisische Zustände. Beides ist eine Illusion.

Walter Wust | Mi., 10. August 2016 - 15:49

Diese Erfindungen aus dem Nichts, all das wollen uns die Religionen als schöpferischen Akt eines nicht genauer definierten Wesens verkaufen. Der Preis ist der Glaube und dieser wiederum fordert von dem jeweils Gläubigen ein entsprechendes Engagement, um zum Endprodukt, dem ewig Seligmachenden oder Paradies oder wie immer diese Leckerli's auch heissen mögen, zu gelangen.
Für mich klingt da eine KI auch nicht abwegiger, meinetwegen auch gleich mehrere. Allerdings erwarte ich von einer wie immer auch gearteten Intelligenz, daß sie einer gewissen Logik folgt und das tun die meisten der mir bekannten Religionen nicht. Der Glaube als Wissenschaft ist allerdings noch lange nicht an seinen Grenzen.

Gerd Hövelmann | Mi., 10. August 2016 - 17:46

Antwort auf von Walter Wust

Es sind gar nicht mal die Religionen, die den Grenzbereich zwischen Materie und Energie, zwischen Information und Intention nicht erklären können oder wollen, sondern es ist die Wissenschaft, die versucht, "logische", d.h. verstandesmäßige Erklärungen in Formeln zu fassen, es aber nicht wirklich können. Was ist dunkle Materie, was dunkle Energie, was ist Gravitation? Es gibt keine Erklärungen, sondern nur "Modelle", Erklärungsversuche, die per se ja auch schöpferische Akte sind. Es bleibt schon die Frage nach der ursächlichen schöpferischen Intelligenz, wie immer man sie auch benennt.
Dass Sie Glaube und Religionen als Verkaufsschlager mit Abhängigkeitspotential verstehen, die jeder Logik entbehren, kann ich nachvollziehen. Wer glaubt, muß nichts verstehen. Das hat aber nichts mit einer echten spirituellen Erfahrung zu tun, die sich jeder rationalen logischen Erklärung entziehen muß, weil sie eben nur "erfahrbar" ist in der Dimension des Nichtdenkens und Nichterklärens.

Gerd Hövelmann | Mi., 10. August 2016 - 17:49

Antwort auf von Walter Wust

KI bleibt nur ein Werkzeug auf materieller oder informeller Ebene. Die spannende Frage bleibt, kann sie Bewußtsein schaffen, kann sie Sinnfragen stellen? Woher kämen dann die Antworten? Und können wir diese Logik nachvollziehen?

Gerd Hövelmann | Mi., 10. August 2016 - 17:54

Antwort auf von Walter Wust

Kann Ki vertrauen trotz gegenteiliger Logik, kann KI dankbar sein oder demütig? Oder kann sie nur auf vorgegebene Algorithmen oder Datenstrukturen reagieren, die zwar unheimlich komplex sind, so dass der Mensch sie nicht durchschaut, aber nicht unendlich sind? Spannende Fragen, deren Antworten wir nur vermuten können.

Lothar Schäfer | Mi., 10. August 2016 - 17:18

Es wird sich nicht verhindern lassen. Wenn es nicht heute Google macht, dann nächsten Monat Microsoft, oder nächstes Jahr Russland, oder in fünf Jahren der IS. Zu gigantisch sind die Möglichkeiten; wer in seiner Domäne KI als erster zur Anwendung bringt, wird die Anderen dominieren.
Genießen wir die verbleibenden Reste unseres analogen Daseins...

Bernhard Jasper | Mi., 10. August 2016 - 18:03

jedoch die Innovationen in der Informationsverarbeitung gehen weiter. Neuartige Software zu entwickeln, ist jedoch auch teuer.

An alle Pessimisten und "Maschinenstürmer": Entwicklung erhält Arbeitsplätze im Inland. Wir leben im globalen Wettbewerb der Standorte.

Die Welt ist ein globales Dorf geworden und schläft nie.

P.S.: Die Quantenphysik ist neben der Relativitätstheorie eine Stütze der modernen Physik, mit Auswirkungen bis in die Biologie hinein.

Bernhard Jasper | Do., 11. August 2016 - 10:17

„Ich stelle mich in den Dienst des Unternehmens, und ich glaube, mehr kann ein verantwortungsbewusstes Gehirn nicht erreichen“, verkündet der Computer HAL.

Siehe hierzu den Filmklassiker auf arte, am 15. August um 20.15 Uhr. Der visionäre Science-Fiction-Klassiker handelt mit Ironie von der Entwicklungsgeschichte der Menschheit - vom instinktgeleiteten Tier zur hochintelligenten Spezies. Besonders schön ist immer dieser schwarze Monolith, der immer im Raum steht und keine Bedeutung zu haben scheint. Ortlos, zeitlos, ins Nichts gestellt.

arte
2001: Odyssee im Weltraum
15. August um 20.15 Uhr (133 Min.)

http://tinyurl.com/hl7bcmp

Karola Schramm | Fr., 12. August 2016 - 23:59

Antwort auf von Bernhard Jasper

Danke Herr Jasper, für diesen Hinweis. Der Wiener Walzer jedenfalls macht mich neugierig. Wie der wohl im Weltraum getanzt wird ?
Frdl.Grüße K.S.

Eberhard Zänger | Mo., 15. August 2016 - 22:05

Ihr macht mir Angst!

Wolf-Dieter Busch | Do., 27. Oktober 2016 - 00:58

Die Schufa bepunktet Kredit-Aspiranten nach einem Algorithmus, den die Firma offiziell verschweigt. Durchaus plausibel, dass dahinter ein Neuronenrechner steckt. Das ist das Gerät, das wie hier beschrieben ohne Kenntnis der Spielregeln lernen kann.

Eine Gefahr besteht nur dann, wenn Künstlicher Intelligenz Entscheidung anvertraut wird, die einer Natürlichen Intelligenz (Mensch) zusteht; nicht jedoch, wenn das Gerät nur als erweiterter Taschenrechner gebraucht wird und seinem Rechenergebnis blindlings vertraut wird. So entstandene Fehlentscheidung ist nicht Fehler des Rechners, sondern des Menschen.

Roboter-Ethik solle not tun? Dass ich nicht lache.