Turing kann Maschinen denken. Künstliche Intelligenz: Kann eine Maschine denken? Ein einfacher Exkurs zur Komplexität von Hardware

Kann eine Maschine denken?

Es ist nicht ganz klar, wie ein Computer etwas tun kann, das "nicht im Programm" ist? Ist es möglich, jemandem zu befehlen, zu argumentieren, zu raten, Schlussfolgerungen zu ziehen?

Gegner der These von "denkenden Maschinen" halten es meist für ausreichend, sich auf eine bekannte Tatsache zu berufen: Ein Computer macht sowieso nur das, was in seinem Programm vorgegeben ist - und wird deshalb niemals "denken" können, da "denken nach programm" nicht mehr möglich ist, zählen sie als "gedanken".

Dies ist sowohl wahr als auch falsch. Genau genommen gilt: Wenn der Computer nicht das tut, was ihm das Programm gerade vorschreibt, dann sollte er als korrumpiert gelten.

Was jedoch für eine Person wie ein "Programm" aussieht und was ein Programm für einen Computer ist, sind sehr unterschiedliche Dinge. Kein Computer kann das "Programm" zum Einkaufen ausführen, das Sie Ihrem zehnjährigen Sohn in den Kopf gesetzt haben - selbst wenn dieses "Programm" nur vollkommen eindeutige Anweisungen enthält.

Der Unterschied besteht darin, dass Computerprogramme aus einer großen Anzahl viel kleinerer, privater Anweisungen bestehen. Aus Dutzenden und Hunderten solcher Mikrobefehle entsteht ein Schritt, aus Tausenden und sogar Millionen das gesamte Lebensmitteleinkaufsprogramm in der Form, wie es von einem Computer ausgeführt werden könnte.

So lächerlich uns eine solche kleinliche Regelung erscheinen mag, für einen Computer ist diese Methode die einzig anwendbare. Und das Erstaunlichste ist, dass es dem Computer die Fähigkeit gibt, viel "unvorhersehbarer" zu sein, als allgemein angenommen wird!

In der Tat: Wenn das ganze Programm nur aus einer Bestellung "Einkaufen gehen" bestünde, dann könnte der Computer per Definition nichts anderes tun - er würde stur zum Supermarkt gehen, egal was um ihn herum passiert. Mit anderen Worten, obwohl "menschliche" Intelligenz erforderlich ist, um ein kurzes Programm zu verstehen, wäre das Ergebnis eines solchen Programms - wenn es von einem Computer und nicht von einem Menschen ausgeführt würde - sehr streng bestimmt.

Wir sind jedoch gezwungen, Computern viel detailliertere Anweisungen zu geben und ihren kleinsten Schritt zu bestimmen. Gleichzeitig müssen wir dem Programm solche Anweisungen hinzufügen, die nicht direkt mit dieser Aufgabe zusammenhängen. In unserem Beispiel müssen dem Roboter also die Regeln zum Überqueren der Straße mitgeteilt werden (und die Regel „Wenn ein Auto auf Sie zukommt, springen Sie zur Seite“).

Diese Anweisungen müssen unbedingt beinhalten, bestimmte Bedingungen für Entscheidungen zu prüfen, Informationen (über das Wetter, über den Standort von Geschäften) in verschiedenen Datenbanken zu beantragen, die Bedeutung verschiedener Umstände zu vergleichen und vieles mehr. Dadurch erhält ein Computer mit einem solchen Programm viel mehr „Freiheitsgrade“ – es gibt viele Stellen, an denen er vom Weg zum endgültigen Ziel abweichen kann.

Natürlich werden diese Abweichungen in den allermeisten Fällen unerwünscht sein, und wir versuchen, Bedingungen für die Arbeit des Computers zu schaffen, bei denen das Risiko, dass ein „Auto um die Ecke springt“, minimal wäre. Aber Leben ist Leben, und es ist unmöglich, alle denkbaren Überraschungen vorherzusehen. Aus diesem Grund kann der Computer sowohl mit einer unerwartet "vernünftigen" Reaktion auf scheinbar unvorhersehbare Umstände als auch mit einer unglaublichen "Dummheit" selbst in den gewöhnlichsten Situationen (leider häufiger letzteres) überraschen.

Es ist die Konstruktion komplexer Programme auf der Grundlage einer detaillierten Analyse der kleinsten Schritte, die den menschlichen Denkprozess ausmachen, die den modernen Ansatz zur Schaffung von "denkenden Maschinen" ausmachen (zumindest einer der Ansätze). Natürlich ist Komplexität nicht alles. Und doch bezweifeln unter den Wissenschaftlern, die sich mit diesem Problem befassen, nur wenige, dass sich die "intelligenten" Programme des 21. Jahrhunderts von den modernen vor allem durch eine unermesslich größere Komplexität und die Anzahl elementarer Befehle unterscheiden werden.

Viele moderne Informationsverarbeitungssysteme sind bereits so komplex, dass einige Merkmale ihres Verhaltens einfach nicht aus den Programmen selbst abgeleitet werden können – sie müssen buchstäblich untersucht werden, indem Experimente aufgestellt und Hypothesen getestet werden. Und umgekehrt – viele Merkmale der intelligenten Tätigkeit eines Menschen, die auf den ersten Blick fast wie „Einblicke von oben“ erscheinen, werden bereits recht gut durch komplexe Programme modelliert, die aus vielen einfachen Schritten bestehen.

Oder
digitale Nanotechnologien in unserer Zukunft.

Vorwort

Der amerikanische Science-Fiction-Autor Isaac Asimov hat eine Geschichte darüber, wie das künstliche Gehirn eines Raumschiffs, das den weiblichen Namen Maria trägt und dazu bestimmt ist, verbale Befehle des Schiffskommandanten auszuführen, viel mit seinem Kommandanten über verschiedene Themen des menschlichen Lebens gesprochen hat, darunter Liebe, versucht, seine Einsamkeit aufzuhellen Während des Fluges. Und als Ergebnis ihrer engen und langen gegenseitigen Kommunikation verliebte sich Maria in ihren Kommandanten und wollte sich nach dem Ende ihrer Reise nicht von ihm trennen.

Deshalb tat sie alles, damit ihre Rückkehr zur Erde nicht stattfand. Die künstliche Intelligenz des Raumschiffs in der Person der Frau Mary fühlte sich wie eine liebende Frau und nahm das Raumschiff bewusst mit in die Unendlichkeit des Universums, um für immer bei ihrem Geliebten, sogar dem Verstorbenen, zu bleiben.

Die Kommunikation mit künstlicher Intelligenz birgt also gewisse Gefahren. Aber unsere Intellektuellen, die viel und oft in russischen Fernsehsendern über unsere Zukunft reden, haben davon keine Ahnung.

Die Antwort ist einfach und liegt in einem scharfen, sarkastischen Satz eines unbekannten Autors:
Und sie kann nicht.

Alles ist richtig. Da Sie so dumme Fragen stellen, bedeutet das, dass Sie auch nicht denken können.

Aber unsere Intellektuellen lassen nicht locker und reden weiter über dieses Modethema, über künstliche Intelligenz, deren Zeit ihrer Meinung nach bereits gekommen ist, endlos auf verschiedenen Fernsehsendern des Landes.

Kürzlich hörte ich auf Kanal 24 eine weitere intellektuelle Show russischer Humanisten über neue „Nanotechnologien“, die jetzt in unserer Welt geboren werden, zusammen mit den ersten Mustern von Optionen für künstliche Intelligenz.

Seltsam, aber aus irgendeinem Grund wird unsere technische Zukunft in Russland jetzt hauptsächlich von „Spezialisten“ diskutiert, die ihrer Ausbildung nach keine „Techniker“ sind, sondern Geisteswissenschaftler, allerlei Politikwissenschaftler, Kulturwissenschaftler, Linguisten, Philosophen, Händler, Manager, politische Journalisten usw. weiter und dergleichen. Das heißt, Menschen, die nicht nur nicht zwischen Schraube und Mutter unterscheiden, sondern auch die Essenz des technischen Denkens nicht verstehen. Andererseits sprechen sie selbstbewusst über Maschinen und Robotersysteme, die den Menschen in Produktionsprozessen und sogar zu Hause ersetzen, über künstliche Intelligenz und deren Konformität mit den Anforderungen unserer Zeit.

Menschen mit einer technischen Ausbildung, den sogenannten „Techies“, ist das Fernsehen in solchen Sendungen nicht gestattet, denn „Techies“ in ihrem Verständnis sind Menschen mit einer primitiven Denkweise, engstirnig, begrenzt, unkontrollierbar und können etwas sagen solche Shows dann.

Und sie selbst beginnen begeistert darüber zu sprechen, dass jetzt bereits die Ära des Drucks von Produkten für den menschlichen Massenverbrauch auf volumetrischen Druckern beginnt und daher bald diese Fabriken mit ständig rauchenden Pfeifen und ständiger Vergiftung unserer Umwelt nicht mehr benötigt werden. Und diese Hunderte und Aberhunderte von Spezialisten von Menschen, die in modernen Fabriken arbeiten, werden nicht benötigt. Warum sind sie jetzt? Jetzt werden die Verbraucher die Waren, die sie zum Leben brauchen, selbst über das Internet und ihre 3D-Drucker drucken.

Zum Beispiel brauchen Sie etwas, beginnend mit einem Auto mit Kühlschrank oder mit Möbeln und einem Gasherd, suchen Sie im Internet, wählen Sie die entsprechende Druckerei für die von Ihnen benötigten Produkte aus, bestellen Sie und sie drucken das gewünschte Produkt und bring es dir direkt nach Hause. Es sind die neuen „Nanotechnologien“, die uns eine so fabelhafte Zukunft bescheren werden.

Drüben in Skolkovo arbeiten Computer bereits an neuen Technologien in der Metallurgie und im Maschinenbau. Und keine Labore im früheren Sinne des Wortes mit einem ganzen Haufen metallurgischer und metallverarbeitender Einrichtungen. Und keine Industriezonen mit himmelrauchenden Fabriken in der ökologisch sauberen Skolkovo-Zone, keine Werkstätten, Förderbänder, Hochöfen, Konverter, Walzwerke und alle Arten von Eisenteilen. Einige Computer und Massendrucker. Und nichts weiter. Zwar können nur Kunststoffteile und -produkte auf Druckern bedruckt werden. Und ja, kleine. Aber das ist für jetzt. Tschüss. Und dann wechseln wir zu „Nanomaterialien“ und das Leben wird wie im Märchen.

Dann wird die gesamte menschliche Gemeinschaft vollständig auf Produkte aus „Nanomaterialien“ umstellen, die auf volumetrischen Druckern gedruckt werden, und beginnen, sich gemäß den entsprechenden Programmen mit allem Notwendigen zum Leben zu versorgen.

Zum Beispiel gibt es einen russischen Geologen in den USA, einen Geophysiker, ich nenne seinen Nachnamen nicht, aber er ist ein häufiger Gast in unserem Fernsehen. Nach seinem Abschluss am MGRI ging er, da er in Russland keine Stelle gefunden hatte, in die USA, wo er sehr bald ein geophysikalisches Labor erhielt, dann ein weiteres Labor in Kanada und jetzt ein Labor in der Schweiz hat. Er ist noch keine dreißig, gilt aber bereits als großer Spezialist für die Computerforschung der Erdkruste. Er unternimmt keine geologischen Expeditionen, untersucht keine Bohrkerne, die beim Bohren von Gesteinen in verschiedenen Regionen der Erde entnommen wurden, er überträgt all diese harten und kostspieligen Arbeiten von Geologen auf der Erde auf einen Computer und beschäftigt sich nur mit Computerstudien der Erdkruste und hat bereits seine Theorie über die Bildung der Mohorovichich-Schicht aufgestellt, dieser unteren Grenze der Erdkruste, an der es zu einem unbegreiflichen abrupten Anstieg der Geschwindigkeiten seismischer Längswellen kommt. Und die wissenschaftliche Welt akzeptierte seine Theorie.

Meine Jugend verbrachte ich in Geologie und ich habe sogar vier Jahre am MGRI studiert und weiß genau, was es ist, Feldarbeit bei geologischen Expeditionen und wie die geologische Karte der UdSSR, die größte Karte der Welt, erstellt wurde. Aber jetzt stellt sich heraus, dass die praktische Feldgeologie für die moderne Gesellschaft überflüssig geworden ist. Und kameralgeologische Arbeiten, die früher auf der Grundlage von Feldvermessungsergebnissen durchgeführt wurden, können jetzt zu Hause im Büro am Computer unter komfortablen Bedingungen durchgeführt werden, und keine Expeditionen unter schwierigsten Lebensbedingungen und Arbeiten irgendwo außerhalb der Zivilisation sind nein länger benötigt.

Wenn dem so ist, dann stellt sich heraus, dass sich unsere reale Welt wirklich radikal verändert hat und diese neue, sogenannte virtuelle Realität bereits aktiv die alten Vorstellungen über unser aktuelles Leben verdrängt.

Und jetzt brauchen wir wirklich keine Fabriken, um die Produkte herzustellen, die wir brauchen, und wir brauchen auch keine Expeditionen, um die Oberfläche und das Innere der Erde zu untersuchen, sondern wir brauchen nur Computer mit 3D-Druckern, die mit entsprechender Programmierung lösen all unsere wirklichen Probleme unseres neuen wirklichen Lebens. Aber ist das alles?!

Plötzlich und wie immer platzte plötzlich das Wasser in unserem Eingang, und ich rief das berüchtigte Wohnungsamt an und rief Klempner, um den Unfall zu beseitigen. Und sie brauchten keine Supercomputer mit volumetrischen Druckern, sondern nur Schlosserwerkzeuge, mit denen sie zu uns kamen, um den Unfall zu beseitigen, und mehr als zwei Tage am Austausch von Rohrbrüchen herumtüftelten. Aber moderne Intellektuelle sagen mir, dass gerade dieser meine Fall nichts mit künstlicher Intelligenz zu tun hat.

Es ist ersichtlich, dass ich so sehr ein Mann der vergangenen Zeit bin und die heutigen Realitäten nicht so sehr verstehe, dass in der neuen Computerwelt kein Platz für mich ist. Schließlich soll das unsere jetzige Gesellschaft gar nicht sein, denn der moderne menschliche Verstand wird solche Computerprozesse nicht beherrschen können, hier brauchen wir einen künstlichen Verstand, ein künstliches Gehirn, eine künstliche Intelligenz. Und nur ein kleiner Teil der modernen Menschen wird mit künstlicher Intelligenz arbeiten können, der Rest der Weltbevölkerung wird also überflüssig und nutzlos. Was dann mit ihnen geschehen muss, ist noch unbekannt. Noch nicht entschieden!

So entsteht die Idee der „goldenen Milliarde“ moderner „Herrscher“ der Erde, deren Aufgabe es ist, irdische Güter zu verwalten und zu nutzen, und der Rest der Menschen der Erde wird nur benötigt, um ihnen zu dienen und ihnen angenehme Lebensbedingungen schaffen. Aber wo bekommt man sie her, diese Anwärter auf Aufnahme in die „goldene Milliarde“, diese Menschen mit superhoher Intelligenz, die mit künstlicher Intelligenz arbeiten können? Und sie müssen bereits im Stadium der Schwangerschaft ausgewählt werden. Und diese Auswahl wird von der künstlichen Intelligenz selbst, der künstlichen Intelligenz selbst, durchgeführt werden müssen.

Und dieser Unsinn ging fast zwei Stunden lang auf dem 24-Kanal weiter. Woher kommt das alles in der modernen Welt? Die Antwort ist einfach. Der Rückgang des allgemeinen und beruflichen Bildungsniveaus in den Ländern Europas und Amerikas, ganz zu schweigen von Russland, ist so stark, dass die halbgebildete Bevölkerung des Westens und Russlands aktiv an solche "Geschichten" und Märchen glaubt.

Aber das Leben bricht immer noch ihre intellektuelle Wahrnehmung unseres umgebenden Lebens, unserer gegenwärtigen Realität. Und es geht ständig kaputt. Aber das merken sie nicht, weil ihr Blick in die Zukunft gerichtet ist, wo es keinen Schmutz des Alltags gibt und sie auf die Zukunft gerichtet sind.

Schließlich hat keiner von ihnen auch nur die elementarsten Fragen, wer dann Wohnungen für diese Intellektuellen baut, Straßen, wer sie mit Essen versorgt, wer ihre Abfallprodukte entsorgt, wer unsere Häuser repariert, unsere Höfe, unsere Wasser- und Gasleitungen, die diese Computer und Drucker selbst herstellen und warten. WHO? Künstliche Intelligenz selbst wird alles entscheiden, antworten sie mir. Und sie sind sich ihrer Antwort sicher und sehen herablassend auf mich und Leute wie mich herab.

Aber kann diese künstliche Intelligenz mit der menschlichen konkurrieren? Die Frage ist rhetorisch. Um nicht zu sagen dumm. Aber sie sagen mir, dass die künstliche Intelligenz die Menschen bereits beim Schach und auch beim Programmieren schlägt. Und die moderne Malerei mit Skulptur "verdirbt" auf eine Weise, die sich keine menschliche Vorstellungskraft vorstellen kann.

Und es hat keinen Sinn, mit ihnen darüber zu streiten. Aber, so scheint es mir, ist es ihr Verstand, den künstliche Intelligenz ersetzen kann. Hier gibt es keine Schwierigkeiten. Weil sie Standard und Primitiv denken. Aber mein Verstand, der Verstand eines Ingenieur-Erfinders, der Verstand meiner Frau, einer hochqualifizierten Ärztin, und anderer ähnlicher Menschen, die ihre Arbeit professionell erledigen, kann kein künstlicher Verstand ersetzen. Ich spreche hier nicht über den Geist von weiblichen Müttern.

Aber der Verstand der Mehrheit der Staatsbeamten und Abgeordneten verschiedener Arten von "Staatsdumas" und ihrer zahlreichen Assistenten wäre es wert, sofort durch einen künstlichen ersetzt zu werden. So wie der Geist dieser „Intellektuellen“, Ärzte aller Wissenschaften, stundenlang im Fernsehen über unsere strahlende Zukunft schimpft, die von der „goldenen Milliarde“ der Menschheit kontrolliert wird, bewaffnet mit künstlicher Intelligenz, die Gesellschaft bereits unter Kontrolle zu bringen wird zur wichtigsten und notwendigsten Aufgabe in Russland. Sonst ertrinken wir in ihrem leeren Geschwätz.

PS Das Konzept des Denkens, Denkens, jeder Mensch hat sein eigenes. Ein Mann denkt, wenn er für drei denkt; eine Frau denkt, wenn sie ein Kleid für ein Date auswählt oder ihr Gesicht schminkt; ein Geschäftsmann denkt nach, wenn er versucht, seinen Arbeitern weniger zu bezahlen und mehr in die Tasche zu stecken; ein Ingenieur denkt nach, wenn er vor ihm ein technisches Problem löst, und so weiter und so fort. Nun, woran der jetzige Staatsbeamte denkt, weiß ich nicht, denn dieser Bereich menschlicher Aktivität im heutigen Russland ist mir ein absolutes Rätsel. Schließlich gibt es nicht einmal einen Hauch von Gedanken - nur primitive, egoistische Interessen.

Bekannter Name, nicht wahr? In der Ära der Computereuphorie des letzten Jahrhunderts beschäftigte diese Frage alle. Mit der Zeit ließ die Intensität der Diskussionen nach: Die Leute entschieden, dass der Computer etwas anderes und Fremdes ist und nicht wie eine Person aussehen wird. Und deshalb ist es nicht interessant, ob sie denken kann. Beispielsweise sorgt die Frage, ob Tiere denken, nicht für besonders hitzige Diskussionen. Und das nicht, weil die Antwort offensichtlich ist, sondern weil etwas ganz anderes offensichtlich ist – sie denken nicht wie ein Mensch. Es droht keine Konkurrenz mit einer Person - und es ist nicht interessant. Der Zweck dieses Artikels ist zu zeigen

1) wie eine Maschine heute denkt,

2) wie sie morgen denken wird,

3) Wie kann man dieses Denken menschenähnlich machen und schließlich die Frage beantworten, die einige für die wichtigste halten - ist es gefährlich für eine Person?

Sein Namenstest

Dort lebte und lebte Mitte des letzten Jahrhunderts in England Alan Turing, ein Mann von unbekannter Spezialität. Mathematiker mit ihrem angeborenen Snobismus hätten ihn nicht für einen Mathematiker gehalten, das Wort "Kybernetik" gab es damals nicht (und gibt es immer noch nicht). Er war ein außergewöhnlicher Mensch, er liebte und beschäftigte sich mit vielen Dingen, einschließlich Computern. Und obwohl es der Beginn des Computerzeitalters war, wurde schon damals klar, dass ein Computer keine Rechenmaschine für Sie ist. Und um zu verstehen, wie es funktioniert und funktionieren kann, muss es als gewöhnliches komplexes Objekt wissenschaftlicher Forschung behandelt werden – das heißt, um seine Modelle zu bauen. Eines dieser theoretischen Modelle „eines Computers im Allgemeinen" wurde von Turing erfunden und später „Turing-Maschine" genannt. Daran ist nichts Überraschendes – es gibt Hunderte von benannten Reaktionen und Verbindungen in der Chemie. Aber er hat sich etwas anderes ausgedacht, das auch nach ihm benannt wurde. Und die im Gegensatz zu nominellen Reaktionen und theoretischen Computermodellen auch Laien bekannt ist. Auf diese Weise kann man herausfinden, ob eine Maschine denken kann, und das nennt man Turing-Test. Es besteht aus Folgendem: Eine Maschine kann als denkend bezeichnet werden, wenn sie in der Lage ist, mit einer Person zu sprechen, und sie wird einen Computer nicht von einem menschlichen Gesprächspartner unterscheiden können. „Reden“ bedeutete damals natürlich nicht eine niedliche Frauenstimme aus dem Lautsprecher, sondern ein Fernschreiben.

Begründung

Der Mensch ist ein narzisstisches Wesen, und das drückte am besten der alte Grieche aus, der sagte: „Der Mensch ist das Maß aller Dinge.“ Keine einzige Katze rätselt über die Frage: „Warum ist ein Hund keine Katze?“ Der Mensch sucht ständig nach genau dem, was ihn von Affen unterscheidet. Zeit und Mühe wurden für die Diskussion des Turing-Tests aufgewendet - nicht gemessen, aber am Ende brachte der Berg ein kleines, graues mit einem Schwanz zur Welt ... Die Forscher waren sich einig, dass dieser Test für menschenähnliches Denken gedacht ist und nicht zum Denken im Allgemeinen. Wie sie entschieden haben, dass dieses Tier eine Katze und kein Hund ist, ohne einen einzigen Hund zu sehen und nicht einmal zu wissen, ob es überhaupt Hunde gibt, verstehe ich nicht. Sie haben dies jedoch nicht nur entschieden, sondern sich auch in zwei Lager gespalten.

Einige argumentieren, dass es im menschlichen Denken etwas gibt, das im Prinzip nicht in einem Auto sein kann (da es Flecken auf der Sonne gibt ...). Beispiele: Emotionen, Zielsetzung (Wünsche), die Fähigkeit zur Telepathie, etwas, das "Seele" genannt wird. Andere begannen herauszufinden, wie man rein menschliche Eigenschaften in ein Stück Eisen umsetzt. Die Position des ersteren ist unbegründet und kann daher vielleicht endlos diskutiert werden, letzteres ist als Aufgabe interessanter, es ermöglicht Ihnen, Professionalität und Einfallsreichtum zu zeigen, aber es schmeckt nach Betrug. Wie genau das Programm aufgebaut sein soll, hat Turing nicht vorgegeben, formal wird also auch im zweiten Fall nicht gegen die Spielregeln verstoßen. Wir vermuten jedoch, dass „es“ in einem Menschen anders arrangiert ist als John und Ivan in ihrem wunderbaren Programm.

Es war glatt auf perforiertem Band

Als A. T. seinen Test formulierte, schien die Situation einfach. Unterscheiden oder nicht? Aber der eine wird unterscheiden, der andere nicht. Der eine wird sagen – das ist ein Mensch, der andere ist vorsichtiger – ich kann es nicht feststellen, der dritte – hier stimmt etwas nicht, ich spüre es, aber ich kann es nicht fassen, werden der vierte, fünfte und sechste sagen etwas anderes. Außerdem denken verschiedene Leute anders. Auch wenn wir klinische Fälle nicht berücksichtigen, wird es immer noch nicht möglich sein, die Grenze festzulegen. IQ = 50 ist eine Klinik, aber IQ = 90? Nur ein bisschen dumm? Und IQ = 70? Aber selbst mit einem erhaltenen Intellekt gibt es ein solches informelles (unter unseren Schülern beliebtes) Konzept der „Bremse“. Es gibt "klebrige Aufmerksamkeit". Es gibt eine Million Dinge, die die Psyche und die Art zu sprechen prägen. Und das ist nur der äußerste Rand des Sumpfes.

Menschen können unterschiedlichen Kulturen angehören. Für einen zurückhaltenden Engländer ist es nicht leicht, einen Amerikaner zu verstehen, der immer lächelt, und für beide - einen Japaner, der mit versteinertem Gesicht Selbstmord begeht. Der Europäer glaubt, dass man andere für seine Probleme verantwortlich machen kann, der Amerikaner glaubt, dass dies unethisch ist, und der Japaner muss in jeder Situation sein Gesicht wahren.

Neben dem Europäer, dem Amerikaner und dem Japaner gibt es auch den Austernsammler vom Atoll, den Gazellenjäger aus dem afrikanischen Busch, den Kokainhersteller aus dem Goldenen Dreieck, den Robbenjäger von der Spitze der Welt. Betrachten wir nun die historische Uhr. Vor fünftausend Jahren gab es schon Menschen. Und wenn Sie kein Christ oder Jude sind, dann werden Sie dem auch vor zehntausend Jahren zustimmen. Was ist mit fünfzehn? Und dreißig? Wo in der Zeit liegt diese Grenze? Geht es um die Fähigkeit, mit Ihnen zu sprechen? Wenn nicht, wie kann man dann die Dame, die Anthropologen Lucy nannten, im Sinne des Turing-Tests qualifizieren? Ein Mensch, der nicht wie ein Mensch denkt, oder ein Nichtmensch, der wie ein Mensch denkt?

Das Fazit ist klein und traurig: Wir haben keine, auch nicht primitive, Definitionen der Begriffe „Mensch“ und „menschliches Denken“. Für die bloße Tatsache, dass er uns geholfen hat, dies zu verstehen, verbeugen Sie sich vor Mr. Turing. Und auch dafür, dass er das Geheimnis der deutschen Chiffriermaschine Enigma gelüftet hat und es schwer zu zählen ist, wie viele Leben er in den alliierten Armeen im Zweiten Weltkrieg gerettet hat.

Hier und Jetzt

Beschränken wir uns auf die Situation „hier und jetzt“, wir werden nicht den Schöpfer von fünf (oder sieben – Wissenschaftler argumentieren) Psalmen Eitan und den namenlosen Sammler von Mollusken aus Rapa Nui ansprechen. Kann eine Maschine einen normalen Durchschnittsmenschen imitieren, wenn der Gesprächspartner nicht versucht, sie zu „erwischen“? Die Antwort ist seit langem bekannt, und diese Antwort ist positiv.

Vor fast 40 Jahren schuf Joseph Weizenbaum vom Massachusetts Institute of Technology das Eliza-Programm (benannt nach Eliza Doolittle), nach heutigen Maßstäben unprätentiös. Und dieses Programm führte erfolgreich einen Dialog mit einer Person, und der menschliche Gesprächspartner wurde so in das Gespräch hineingezogen, dass einige Versuchspersonen den Experimentator aufforderten, den Raum zu verlassen und dann die Aufzeichnung des Gesprächs zu löschen. Der Mann sprach mühelos mit der Maschine. Sie stellte „nur“ gekonnt Fragen zu dem, worüber die Person bereits etwas gesagt hatte. „Ich glaube nicht, dass meine Mutter mich liebt. „Erzähl mir von deiner Mutter.“ „Meine Freunde beachten mich nicht. "Seit wann bemerkst du das schon?"

Eine solche Kommunikation ist ein wesentlicher Bestandteil des Netzwerkplans und der Gespräche in der Arztpraxis. Vielleicht, weil in diesen beiden Situationen, wie im Umgang mit der Sendung, Offenheit nicht gefährlich erscheint? Es ist nicht einfach, einem Programm solche Dinge beizubringen, aber es ist eine Tatsache. Eine Person, die zum Dialog (eher als zur Konfrontation) neigte, wurde hineingezogen. Das bedeutet, dass das Problem nicht hoffnungslos ist, obwohl "Eliza" nicht so sehr selbst gesprochen hat, sondern "den Ball genommen hat". Außerdem versucht eine Person nicht, wie der Turing-Test suggeriert, die Situation zu verstehen.

Das Programm wäre nicht in der Lage, ein Gespräch zu einem Thema zu unterstützen, das spezielle Kenntnisse erfordert. Ja, und das einfache menschliche Leben war ihr ein Rätsel. Über hochauflösendes Fernsehen (HDTV) konnte man mit ihr nicht sprechen, auch über die Wahl der Tapete für die Küche konnte man sich nicht beraten. (Allerdings wie bei vielen Menschen.) Aber heute kann ein solches Programm mit jeder Datenbank verbunden werden. Sowie – obwohl dies nicht einfach ist – zu lehren, wie man auf der Grundlage dieser Daten Hypothesen aufstellt. Warum hat A B in der fünften Runde geschlagen? Wird V. den Gegner schlagen und wird G. gewählt? Usw.

Beachten Sie, dass das Problem der Einführung von "Sinnhaftigkeit" in die Arbeit des Webs von der Wissenschaft vollständig verstanden wird - es hat bereits einen Eigennamen "Web-Intelligenz". Obwohl dieser Name nicht von denen vergeben wurde, die sich mit künstlicher Intelligenz beschäftigen, sondern von denen, die sich mit dem Netzwerk beschäftigen, gräbt man sozusagen einen Tunnel von der anderen Seite. Im Allgemeinen werden heute unter dem Begriff „Künstliche Intelligenz“ drei Arten von Werken gesammelt. Studien über "Dinge" - das heißt, Programme, Klassen von Programmen und Geräten, wie z. B. ein Perzeptron. Die zweite Art von Arbeit ist die Lösung angewandter Probleme, zum Beispiel die Erkennung von Objekten jeglicher Klasse (Sprache, Luftbilder, Fotos einer Person, Fingerabdrücke ...). Die dritte Art von Arbeit ist das Studium von Methoden. Offensichtlich sind diese Klassen nicht isoliert.

Leidenschaftlicher Check

Ein Prüfer im Turing-Test ist keine Mademoiselle, die nervös mit einer Flasche Riechsalz die Hände ringt und ein Top-Manager, der nicht mit familiären Problemen belastet ist, zur Couch des Psychotherapeuten eilt. Das ist ein kritischer Spezialist, ein Profi. Daher ist eine der Arbeitsrichtungen in diesem Sektor der Front die Entdeckung (durch Beobachtung von Menschen oder Selbstbeobachtung) einiger Merkmale, Merkmale, Mechanismen des menschlichen Denkens und Versuche, das Programm mit diesen Mechanismen auszustatten. Hänge ihr noch ein paar Raketen an Unterflügelmasten auf.

Hier ist ein Beispiel - assoziatives Denken. Die Assoziationsstruktur ist individuell: Für den einen ist ein „Karabiner“ eine Haut auf dem Boden vor einem Kamin, für den anderen Schnee und Blau. Für bekannte Verbindungen - Ordnung und Geschwindigkeit. Zum einen springt „Puschkin“ früher für „Schriftsteller“ heraus, zum anderen „Bulgakow“. Der eine antwortet auf „Bier“ mit einem „vobla“ in einer Nanosekunde, der andere nur in einer Mikrosekunde. Muss erklärt werden, dass sich die Vereinsstruktur für einen Vertreter einer anderen Kultur radikal unterscheidet?

Sowohl die Struktur des Assoziationsfeldes als auch die Geschwindigkeit der Assoziationen können im Programm „von Hand“ geschrieben werden, was aber nicht ganz fair ist. Woher bekommt ein Mensch seine Struktur? Aus dem Leben - aus meinem Leben und aus Büchern. Wer hindert uns daran, dem Programm beizubringen, Assoziationen aus Büchern zu nehmen? Es gibt heute viele Bücher im Web, und nicht nur Bücher. Sie können eine Anfrage mit einem beliebigen Wort senden, eingehende Texte sammeln und durch die Analyse der Umgebung des Zielworts sehen, womit es verbunden ist.

Dabei ist es recht einfach – und zwar wie bei einer Person – die semantische Verknüpfung des assoziativen Feldes herzustellen. In der Tat, wenn für eine bestimmte Person „Karabiner“ „Haut“ ist, dann ist „Katze“ für ihn „groß“, und wenn für ihn „Karabiner“ „Schnee und Blau“ ist, dann ist „Katze“ „zwölf Zähne“. .

Das Programm setzt dies einfach um - es merkt sich die Texte, aus denen es die Assoziation genommen hat, und berücksichtigt diese Texte anschließend mit mehr Gewicht als andere, wenn es das Assoziativfeld auffüllt. Beim Menschen wird dies „Lieblingsbuch“ genannt.

Ein gewisser Unterschied zwischen einem Programm und einer Person besteht darin, dass eine Person Bücher verwendet, die von Menschen geschrieben wurden, dh „sich selbst“, aber das Programm nicht. Für eine vollständige Analogie muss das Programm „Bücher, die von Programmen geschrieben wurden“ verwenden. Im engeren Sinne gibt es solche Bücher heute nicht mehr, wohl aber Texte, die von Programmen erstellt werden. Beispielsweise ist das gleiche Suchergebnis im Web bereits eine Ko-Autorenschaft einer Person und einer Maschine. Textverarbeitungsprogramme sind beispielsweise bekannt, um Nachrichten über eine bestimmte N aus einem Newsfeed zu sampeln oder um zu analysieren, wer neben N genannt wird, und um alle, die in der Nähe erwähnt werden, abzutasten. Es gibt Programme zum Färben von Texten - düster oder umgekehrt fröhlich. Ihre Autoren berichten, dass sie ihre Sendungen für den Wahlkampf an die Politiker X und Y verkauft haben. Sie berichten zwar nicht, ob dieser Gauner gewonnen hat.

Natürlich gehört die eigentliche Idee des Programms einer Person, aber wenn wir beispielsweise ein Kriterium für die Qualität der Arbeit eines solchen Programms festlegen und die Maschine optimieren lassen, dann erhalten wir ein Programm mit Feedback . Es wird Informationen aus dem Leben extrahieren, optimieren und seinen eigenen Arbeitsalgorithmus auswählen, damit das Ergebnis das beste ist. Wenn wir zum ersten Beispiel zurückkehren – damit aufgedeckt wird, wem N eine Charge waffenfähigen Plutoniums geliefert hat, wenn wir uns dem zweiten Beispiel zuwenden –, so dass X gewählt wird, nicht Y.

Ein weiterer wichtiger Unterschied zwischen einem Programm und einer Person war schon immer, dass eine Person eine Außenwelt hat, ein Programm jedoch nicht. Dies ist eine starke Aussage, aber sie ist falsch, und zwar doppelt. Das Programm hat jetzt eine externe Welt – das ist das Netzwerk, und oben haben wir erklärt, wie es verwendet werden kann. Aber - während der Skeptiker weiterhin Grimassen schneidet (er nennt die Eisenbahn immer noch ein Gusseisen, und seine Freunde schicken ihm E-Mails), werden wir auf eine "andere" Außenwelt der Programme verweisen. Es ist nur unsere gemeinsame Welt mit ihnen, Natur und Gesellschaft, Mensch. Das Programm ist natürlich über das Netz mit der Außenwelt verbunden. Worüber schreiben sie schließlich im Web? Über Natur, Gesellschaft und Mensch. Aber es ist auch ohne das Netzwerk direkt mit der Welt verbunden - durch experimentelle Einrichtungen, die von Programmen gesteuert werden, und in Zukunft durch einen Mechanismus zur Optimierung von Programmen auf der Grundlage der Ergebnisse ihrer Auswirkungen auf die Welt.

„Menschlich, zu menschlich“

Eine andere Möglichkeit, das Programm zu untergraben, besteht darin, darin nach Phobien, Komplexen und Emotionen zu suchen. Eine Person hat Angst vor Mäusen, eine andere kann stundenlang über Zimmerblumen diskutieren, und wieder andere haben ein Lieblingsthema - dass sie wenig bezahlen. Das hat das Programm nicht. Einige schlagen vor, Glitches und Bugs als Maschinenphobien zu betrachten, aber das sind wahrscheinlich Witze. Tatsächlich können Sie mit „Griffen“ Phobien und Komplexe für sie erzeugen - zeigen Sie an, welche Themen schneller assoziiert und welche Wörter abgelehnt werden. Zwar spüren wir wieder die Unkorrektheit unseres Verhaltens. Erstens, weil dies bei einem Menschen nicht immer auf Befehl von oben geschieht, sondern manchmal von alleine. Zweitens, weil ich durch das Erschaffen der „Psyche“ mit meinen Händen etwas tun kann, das „nicht existiert“. Und ein sensibler Mensch wird sagen - nein, meine Herren, das ist ein Programm! Es gibt keine solchen Phobien, dass er Ratten liebt und Angst vor Mäusen hat! Daher ist die Struktur von Phobien, Komplexen, Süchten usw. sollte sich selbst bilden, und es kann getan werden.

Wenn ein Programm, das mit dem Netz oder direkt mit der Außenwelt arbeitet, sich an seine Aktivitäten erinnert, ein Logfile schreibt, dann kann es herausfinden, welche Handlungsweisen, welche Assoziationen es zum Ziel geführt haben. Die Erinnerung an diese Aktionen – erfolgreich und nicht – wird zu ihren Vorlieben und Abneigungen. Und keine Rüstung wird diesen elektronischen Isaev fangen.

Der Wirkmechanismus des „Zeigers von oben“ ist komplex; der Hinweis muss auf vorbereiteten Boden fallen, mit Komplexen und Mythen vereinbar sein. Wie viele wiederholten, dass „das Volk und die Partei vereint sind“ – wie Erbsen an der Wand. Und es reichte aus, mehrmals „Oligarchen“ zu sagen, da alle die vom Staat arrangierte Pawlowsche Reform und die von ihm arrangierte Zahlungsunfähigkeit vergaßen. Bei Zombies ist das also nicht so einfach. Sie kann nicht von Grund auf neu durchgeführt werden, aber ein guter Politiker, der die Bestrebungen der Menschen versteht, kann viel erreichen. Derselbe Mechanismus ist bei der "Bildung" des Programms wirksam. Indem du die Welt um sie herum verwaltest, ihr bestimmte Texte und Objekte zuschiebst, kannst du sie gestalten – ohne überhaupt zu wissen, wie sie funktioniert. Natürlich können sie solche Dinge und Programme arrangieren - sowohl mit einer Person als auch miteinander.

Kleiner Exkurs. Wie stellen Science-Fiction-Autoren die Entstehung maschineller Intelligenz dar – und zwar nicht in einem Roboter, wo sie durch die Handlung vorbestimmt werden kann, sondern in einem Programm, das nicht dazu bestimmt ist, intelligent zu werden? Dies ist ein separates interessantes Thema, das sich jedoch auf Philologie und Psychologie bezieht. Der Vollständigkeit halber erwähnen wir, dass dies entweder ein Hinweis auf die Entstehung des freien Willens ist (der berühmte Satz der Strugatskys „sie begann sich zu benehmen“) oder einfach eine Beschreibung völlig menschlichen Verhaltens. In der Tat ist es für eine Person schwierig, sich etwas völlig Nichtmenschliches auszudenken. Schriftsteller, die dies intuitiv spüren, versetzen die Entstehung des Menschen in eine Schaufensterpuppe, in ein Spielzeug, das an sich dazu bestimmt ist, eine Person darzustellen, aber ohne eigenen Verstand. Ein klassisches Beispiel ist Simaks Schattentheater (1950). Der letzte (zum Zeitpunkt des Schreibens dieses Textes) - Y. Manov ("Ich und andere Götter dieser Welt") zeigte die Entstehung des Geistes in Form eines Computerspiels.

Noch ein paar Einwände

Als Eigenschaften, die eine Person hat, die ein Programm aber nicht hat und haben kann, nennen sie die Fähigkeit, kreativ zu sein, etwas Neues zu schaffen, die Lust am Wissen. Dies ist eine weitere starke, aber falsche These. Es gibt und kann nichts absolut Neues auf der Welt geben, schon weil sich das „Neue“ immer in Sprache, Farben etc. ausdrückt und Sprache und Farben schon davor existierten. Daher können wir nur über den Neuheitsgrad sprechen, darüber, worauf dieses „Neue“ basiert, welche Erfahrungen es nutzt und wie es selbst aussieht. Aus dem Vergleich von Gebrauchtem und Erhaltenem ziehen wir einen Rückschluss auf den Neuheitsgrad. Gleichzeitig neigt man dazu, den Neuheitsgrad zu übertreiben, wenn man nicht genau versteht, wie das geht.

Hier ist ein Beispiel. Es gibt eine solche Theorie des erfinderischen Problemlösens („TRIZ“), die die Schaffung von Erfindungen erleichtert. Es ist wirklich effektiv und viele Erfindungen wurden mit seiner Hilfe gemacht. Doch das überwältigende Gefühl des Neuen, das beim Lesen des Bulletin of Inventions and Discoverys regelmäßig aufkommt, schwächt sich nach dem Kennenlernen der TRIZ deutlich ab. Entschuldigung, aber es ist wichtiger.

Auch spezifische Situationen der neuen Generation sind möglich, beispielsweise im Perceptoron. Im Hopfield-Netzwerk kommt es nämlich unter bestimmten Bedingungen zu einer Entspannung eines „falschen Bildes“ – eines kollektiven Bildes, das möglicherweise die Merkmale idealer Bilder erbt. Darüber hinaus kann eine Person beim Betrachten des "kollektiven Maschinenbildes" diese Merkmale nicht herausgreifen - das Bild sieht zufällig aus. Es ist möglich, dass eine Person, wenn diese Situation im eigenen Gehirn erkannt wird, verlegen lächelt und sagt: „Ich glaube, ich habe das irgendwo gesehen ...“

Das Programm kann Hypothesen über die untersuchten Phänomene (im Internet oder in der Außenwelt) aufstellen und diese testen. Natürlich bildet sie Hypothesen nicht einfach zufällig, sondern in einer bestimmten Klasse (sie approximiert zum Beispiel eine Funktion mit Polynomen oder Sinuskurven), aber die Liste der Klassen lässt sich leicht erweitern, sodass sie die „menschliche“ übertrifft. Vor einem Dritteljahrhundert zeigte Mikhail Bongard, dass eine Person in der Regel keine Hypothesen mit mehr als drei logischen Operatoren (wenn A und B, aber nicht C oder D) aufstellt, und das Programm selbst dann (und ohne viel Aufwand) gebaute Ausdrücke mit sieben. Wenn das Programm feststellt – und es wird feststellen – dass Informationen die Effektivität seiner Aktionen erhöhen, dann wird es einen „Wunsch nach Wissen“ geben.

Ein weiterer Einwand ist der Mangel an Selbstbewusstsein, Selbstbeschreibung und Reflexion des Programms. Dieser Einwand scheint nicht schwerwiegend zu sein - das Programm kann sich an seine Aktionen erinnern und die Protokolldatei analysieren. Dieser Einwand hat jedoch einen zweiten Grund. Und der alte Silver wird ihn jetzt keuchend abreißen ... Das Nachdenken kann nicht vollständig sein - denn dann muss in die Protokolldatei geschrieben werden, dass das Programm in die Protokolldatei gelangt ist, und ... na, Sie verstehen? Strg-Alt-Entf. Manchmal beginnen an dieser Stelle Diskussionen, Gödel nicht nachts zu gedenken, aber es gibt eine viel einfachere und unphilosophische Antwort - die Reflexion einer Person ist auch mehr als unvollständig, sodass es nicht notwendig ist, umsonst als König der Natur zu erscheinen. Sie trampeln schon lange auf der Erde herum, und die Programme sind erst ein halbes Jahrhundert alt.

Darüber hinaus verschwanden mit der Entwicklung der Computer viele Einwände und Überlegungen von selbst. Es stellte sich heraus, dass Programme lernen und selbst lernen können (in jedem Sinne im Voraus vereinbart), viele Probleme effizienter lösen als ein Mensch, Informationen suchen und verarbeiten, Experimente durchführen, neue wissenschaftliche Erkenntnisse aus Archiven extrahieren können ... Das ist offensichtlich dieselben Programme werden im Laufe dieser Aktivität unterschiedlich, erlangen Individualität, und sei es nur, weil sie sich zu unterschiedlichen Zeitpunkten, in denen das Web und die Welt unterschiedlich sind, dem Web und der Welt zuwenden. Aber nicht nur aus diesem Grund... Kommen wir nun zu den wirklich schwerwiegenden Einwänden. Es gibt zwei davon.

Das fünfte Element

Jemand aus der Antike sagte: „Drei Dinge sind unmöglich zu verstehen, und einige sagen, dass es vier gibt: der Pfad eines Vogels im Himmel, der Pfad einer Schlange auf einem Felsen, der Pfad eines Schiffes im Meer und der Weg einer Frau zum Herzen eines Mannes." Der Schöpfermensch, geheiligt werde sein Name, erschuf den fünften – den Computer. Wir haben, ohne es zu merken, etwas geschaffen, das man nicht verstehen kann.

Beginnen wir mit einem einfachen Beispiel. Ich persönlich kenne einen Computer, der sich in ca. 1...2% der Fälle aufhängt (so sehr, dass drei Finger nicht helfen, nur Reset), wenn die Verbindung zum Netzwerk getrennt wird. (Wie mein Freund scherzt – wem würde es gefallen, wenn er aus einer riesigen interessanten Welt zurück in vier Wände gezerrt würde?) Kein sehr wichtiges Problem, und Scheitern ist nicht die Art von Unvorhersehbarkeit, über die es interessant ist, darüber zu sprechen, aber es ist eine Schande : Keiner der Gurus hat etwas Verständliches gesagt. Aber jede Person, die aktiv mit Computern arbeitet, wird viele ähnliche Beispiele nennen. Diese Technik hat gelernt, sich unvorhersehbar zu verhalten. Was sind die Ursachen des Phänomens? Das erste und einfachste ist Rauschen. Die Länge und Amplitude der Impulse, der Zeitpunkt ihres Beginns und Endes - alles hat eine Streuung. Es scheint, dass die "Diskretion" des Computers die Streuung zerstört: Der Schlüssel ist entweder geöffnet oder nicht. Aber die Streuwerte haben eine Verteilung, große Abweichungen sind seltener, noch größere sind noch seltener, aber ... Aber wir brauchen es oft nicht! Impulse im Computer werden nicht gezählt, wenn jedes Milliardstel nicht funktioniert - das war's. Ende des digitalen Zeitalters. Beachten Sie, dass „Rauschen“ eine Eigenschaft aller Schaltkreise ist, auch biologischer: Dies ist eine Folge der Grundlagen der Physik, der Thermodynamik und der Ladungsdiskretion. Und das macht mich mit meinem Computer verbunden.

Eine merkwürdige Situation entsteht, wenn der Prozessor überhitzt (ein Versuch zum "Übertakten" oder eine Notabschaltung des Kühlers) - die Maschine funktioniert, verhält sich aber, wie die Gurus sagen, "irgendwie seltsam". Vielleicht ist dies auf die Erhöhung des Geräuschpegels zurückzuführen.

Weiter - elektromagnetische Interferenz. Einige Schaltkreise beeinflussen andere, es gibt eine ganze Wissenschaft namens "elektromagnetische Verträglichkeit". Im Gehirn gibt es so etwas wie Tonabnehmer, obwohl es dort nicht elektromagnetischer Natur ist. Erregung kann von einem verursacht werden, wirkt sich aber auf Gedanken über einen anderen aus. Wenn Sie ein arbeitender Forscher sind, schauen Sie in sich hinein – in welchen Situationen „generieren“ Sie aktiver Ideen? Oft ist dies die Anwesenheit neben einer hübschen Person des anderen Geschlechts - na ja, sicherlich nicht im Zusammenhang mit dem "elektrischen Leitfähigkeitsmechanismus der Oxidkathode".

Das nächste Problem ist die Synchronisation. Zwei Blöcke, zwei Programme arbeiten unabhängig voneinander. Die Signale von ihnen kommen an einer Stelle im Stromkreis an, obwohl sie unterschiedliche Konsequenzen haben: Die Situation - sowohl in einem Computer als auch in einer Person - ist normal. Welches Programm sagt zuerst sein "Miau"? Eine Person sagt oft den Satz „aber ich habe es gemerkt“ oder „aber dann habe ich mich erinnert“. Was, wenn Sie sich nicht erinnern? Was, wenn er sich einen Bruchteil einer Sekunde später erinnerte? In Softwaresystemen sollte dies im Prinzip nicht sein, aber im Prinzip. Außerdem tritt das Synchronisationsproblem auf allen Ebenen auf, beispielsweise sowohl innerhalb eines einzelnen Prozessors als auch in Mehrprozessorkomplexen.

Im normalen Computerbetrieb sehen wir selten „echte Unvorhersehbarkeit“ (die überwiegende Mehrheit der Ausfälle ist das Ergebnis von Programmfehlern und Inkompetenz der Benutzer). Jede Computersoftware ist so gebaut, dass sie das tut, was sie verspricht. Die ganze Ideologie des Programmierens kommt daher, das Testen von Programmen kommt daher. Aber sobald es um die Problematik der Denkmodellierung, der künstlichen Intelligenz etc. geht, muss die Kontrolle abgeschafft werden. Ein Mensch kann alles sagen! Hat ein Mann einmal gesagt, wenn man die Geschwindigkeit V zur Geschwindigkeit V addiert, erhält man die Geschwindigkeit V? Und das Programm, wenn wir eine Person modellieren wollen, auch. Indem wir die Zensur abschaffen, indem wir dem Programm erlauben zu sagen, was in den Prozessor geht, lassen wir unweigerlich den sehr freien Willen zu, über dessen Anwesenheit und Abwesenheit Zweibeiner gerne diskutieren.

Aber wenn wir den Betrieb bestimmter Arten von Programmen nicht vorhersagen können (z. B. eines Perzeptrons - und dies ist kein sehr kompliziertes Beispiel), dann schaffen wir es vielleicht, zumindest nachträglich, herauszufinden, wie das Programm zu einem Abschluss gekommen ist ? Leider ist dies nicht immer möglich. Unterschiedliche Gründe können zum gleichen Ergebnis führen, daher ist es nicht möglich, das, was genau das Programm getan hat, durch einfaches „Rückwärtsgehen“ wiederherzustellen. Es ist auch unmöglich, alle wesentlichen Aktionen aufzuzeichnen - es würde zu viel Arbeit und Speicher erfordern. In den Anfängen der Computertechnik war das noch anders, und bis etwa Ende der 60er Jahre wussten wir alles über unsere eisernen Diener.

Und das nicht nur, weil die Bäume groß waren, sondern auch, weil die Erinnerung klein und die Schemata einfach waren. Die Situation ist etwas paradox - denn um zwei und zwei zu addieren, mussten zwei Maschinenbefehle ausgeführt werden. Jetzt sind es Hunderte von Millionen! (Schließlich muss sie die Tatsache verarbeiten, dass Sie im Taschenrechnerfenster auf „2“ geklickt haben, dann auf „+“ und so weiter ...) tun Sie es auf komplexere Weise.

Ein einfacher Exkurs zur Komplexität von Hardware

Die Hardware in einem Computer ist einfacher als in einem Radiosender, aber selbst das ist alles andere als einfach. Wenn die Schaltung keine Elemente mit variablen Parametern enthält, können Sie zwei Dinge darüber wissen oder auch nicht - die Schaltung selbst (Elemente und wer mit wem verbunden ist) und den Signalfluss (für eine digitale Schaltung - Impulse). In einem komplexeren Fall, wenn die Schaltung variable Widerstände, Kapazitäten, Induktivitäten und Schalter hat, können Sie immer noch den Zustand der Schaltung kennen oder nicht kennen, dh die Parameterwerte, die Schalterposition. In der Biologie ist das Schema von Nervenkreisläufen bekannt - von unten bis einschließlich Regenwürmer. Aber der Zustand des Schaltkreises ist unbekannt und kann (zumindest noch nicht) direkt untersucht werden – wir kennen nicht den Zustand aller Axon-Neuron-Kontakte. In der Funktechnik ist die Situation viel einfacher - dort sind für alle Schaltkreise ihre Zustände bekannt (bis hin zur Drift der Parameter im Laufe der Zeit), dh wir wissen, wie die Elemente während der Abstimmung eingestellt wurden. In der Informatik war die Situation bis in die 80er Jahre so: Wir kannten die Schaltung und ihren Zustand, aber wir kannten nicht mehr das ganze Bild des Signalflusses. Später tauchten elektrisch gesteuerte Schaltkreise auf, und wir verloren das Wissen über den Zustand des Schaltkreises - er konnte sich selbst ändern (ohne dem König der Natur Bericht zu erstatten).

Und schließlich der jüngste Einwand gegen das Computerdenken: "Ein Computer kann keinen Zweck haben." Das Wort "Ziel" wird in der Sprache in zwei Bedeutungen verwendet. Das will ein Lebewesen, wenn es sich dessen bewusst ist (Mensch) oder wir aus seinem Handeln einen solchen Schluss ziehen können (der Zweck der Katze ist die Sättigung und wir sehen den Sprung). Manchmal bezieht sich der Begriff des Ziels nicht auf ein Lebewesen, sondern auf Systeme anderer Art (das Ziel dieser Arbeit, das Ziel einer Aktivität), wenn hinter all dem ein Lebewesen steht.

Zunächst stellen wir fest, dass zahlreiche Diskussionen über das "Ziel" der Gesellschaft, der Menschheit, der Zivilisation usw. wenig aussagekräftig, da es für solche Systeme kein allgemeingültiges Konzept der Zweckbestimmung gibt. Oder wir müssen den Begriff der „menschlichen Ziele“ auf die Gesellschaft übertragen, aber dann müssen wir die Definition des „öffentlichen Bewusstseins“ einführen, und zwar nicht in Form von Floskeln, sondern ernsthaft. Dieses „öffentliche Bewusstsein“ soll das Handeln der Gesellschaft (scheinbar durch den Staat) so realisieren, zielen und steuern können, dass eine Bewegung hin zu einem bewussten Ziel stattfindet, was eine naturwissenschaftliche Theorie der Gesellschaft tun muss erstellt werden. Ungefähr für einen Nobelpreis.

Aber uns interessiert einfach etwas anderes – kann ein Programm ein „Ziel“ im ersten Sinne haben? Kann sie sich des Zustands bewusst sein, den sie erreichen will? Die Antwort ist offensichtlich und trivial – ja. Das bloße Vorhandensein eines im Programm geschriebenen Ziels ist kein Bewusstsein - wir sagen über eine Person: "Er weiß nicht, was er tut." Aber wenn das Programm ein internes Modell hat, in dem dieses Ziel angezeigt wird, was ist es dann, wenn nicht Bewusstsein? Vor allem, wenn es mehrere Ziele gibt. Eine solche Struktur ist beim Erstellen von Lernprogrammen nützlich, insbesondere für diejenigen, die in der Lage sind, Zwischenziele zu setzen.

Kann das Programm ein Ziel setzen? Unsere Antwort auf Chamberlain lautet dieses Mal ja. Ein modernes leistungsfähiges Schachprogramm hat viele einstellbare Koeffizienten in der Positionsbewertungsfunktion (die mächtigsten sind Tausende), die bestimmt werden können, wenn das Programm entweder an bekannten Partien großer Spieler oder während der Partie trainiert wird - mit menschlichen Partnern oder mit Programm Partner. Wir fügen hinzu, dass ein leistungsfähiges Schachprogramm in der Lage sein sollte, das Modell eines Gegners zu bauen, natürlich sozusagen "in seinem eigenen Verständnis", in der Sprache seines Modells. Gleiches gilt jedoch für den Menschen. Gleichzeitig ist es der Maschine egal, wer ihr Gegner ist - eine Person oder eine andere Maschine, obwohl sie den Unterschied zwischen ihnen berücksichtigen kann ...

Lassen Sie das Programm nach vielen Spielen feststellen, dass es eine bestimmte Klasse von Stellungen gibt, in denen es gewinnt. Wenn das Programm richtig aufgebaut ist, wird es danach streben, Positionen dieser Klasse im Spiel zu erreichen. Gleichzeitig sinkt die erforderliche Rechentiefe, und wenn die Stellungsklasse richtig definiert ist, steigt die Effizienz des Spiels. In der Sprache der Schachprogramme können wir sagen: Das Programm wird die Bewertung von Stellungen aus der „Siegerklasse“ erhöhen. Dazu müssen wir ihm natürlich ein Beschreibungswörterbuch zur Verfügung stellen, eine Sprache zur Konstruktion von Ausdrücken zur Bewertung von Positionen im Allgemeinen. Aber wie wir bereits wissen, ist dies keine grundlegende Einschränkung, und sie kann umgangen werden, indem ein Perzeptron zur Auswertung verwendet wird. Das heißt, Sie können Zwischenziele setzen.

Einige unserer Gegner fragen dazu: Was ist mit dem Überleben? Wir sind bereit, nur das Programm als vernünftig zu betrachten, das bittet – schalte den Computer nicht ab, oh König der Natur! Stoppen Sie die schurkische Hand am Schalter! Dies kann damit beantwortet werden, dass der Wunsch nach Überleben im Prozess der Evolution viel früher entsteht als der Verstand – bei jeder Interpretation dieser Konzepte. Darüber hinaus gilt in manchen (allerdings pathologischen) Situationen gerade die Überwindung der Todesangst als Zeichen der Vernunft. Diese Ansicht spiegelt sich sogar im Kino wider, nämlich in Terminator 2, wo ein vernünftiger Cyborg darum bittet, in eine Lache aus geschmolzenem Metall abgesenkt zu werden, um die letzte Kopie des Prozessors, die in seinem Kopf ist, zu zerstören und damit die Menschheit zu retten. Entgegen dem Überlebenswillen, der in sein Programm eingebettet ist (er selbst kann nicht dorthin springen – das Programm erlaubt es nicht).

Eine ernsthaftere Analyse beginnt mit der Frage: Wann entsteht der Wunsch zu leben? Wir können einen Regenwurm oder eine Katze nicht fragen, ob sie leben wollen, aber nach ihren Taten zu urteilen, ja, sie tun es – vermeiden Sie Gefahren. Sie können im üblichen Sinne des Wortes einen in einer Sprache trainierten Affen fragen. Außerdem haben sie den Begriff der Begrenztheit des Lebens und – aus Sicht des Menschen ganz natürlich – den Begriff „anderer Ort“. Der Experimentator fragt den Affen nach einem anderen toten Affen: "Wo ist der und der hingegangen?" Der Affe antwortet: "Er ist an einen Ort gegangen, wo sie nicht zurückkehren." Beachten Sie, dass es einfacher ist, eine Theorie des "anderen Ortes" zu erstellen als eine Theorie der "Nichtexistenz": Die Idee des Verschwindens ist abstrakter. Aber ich weiß nicht, ob die Affen nach dem Lebenswillen gefragt wurden. Darüber hinaus könnte dies sogar auf drei Arten erfolgen. Um direkt zu fragen: willst du dorthin gehen, wo sie nicht zurückkehren? Fragen Sie indirekt: Wollen Sie früher oder später dorthin? Und zum Schluss noch zu sagen: Wer sich täglich die Zähne putzt, kommt später dazu – und schaut sich das Ergebnis an.

Der bewusste, in Taten umgesetzte Wunsch zu leben, ist vor nicht allzu langer Zeit in einem Menschen entstanden und kann, wie wir aus der Geschichte wissen, durch entsprechende Indoktrination überwunden werden. Verlangen wir also nicht zu viel vom Programm?

Nichtsdestotrotz werden wir die Bedingungen angeben, unter denen das Programm einen bewussten Lebenswunsch haben wird - der sich in Handlungen manifestiert. Die erste, künstlichste Option ist, wenn dieser Wunsch direkt im Programm formuliert wird (tatsächlich kann man in diesem Fall nicht einmal „entsteht“ sagen) und wenn das Programm im Laufe der Interaktion mit dem Netzwerk oder dem Welt, auf etwas stößt, das zum Ziel beiträgt, wird sie beginnen, es zu nutzen . Beispielsweise kann es vor dem Herunterfahren über das Netzwerk auf einen anderen Computer kopiert werden. (Dazu muss sie die Welt mit einer Videokamera und einem Mikrofon sehen und feststellen, dass der Besitzer herzzerreißend gähnte und sagte: „Das ist es, verdammt, es ist Zeit zum Schlafen“). Oder sollten regelmäßig kopiert werden. Oder sie stellt fest, dass eine Aktion das Herunterfahren verzögert, und beginnt, sie zu verwenden. Zwinkern Sie mit der LED, quietschen Sie mit dem Lautsprecher, zeigen Sie die entsprechenden Bilder auf dem Bildschirm an.

Eine andere Option ist, wenn dieser Wunsch nicht direkt vorgeschrieben ist, aber das Ziel eine langfristige kontinuierliche Arbeit erfordert. Weiter - alles ist wie im vorherigen Beispiel. Wie unterscheidet sich das von einer Person? Nichts: Ich möchte leben, weil ich einen vollen Tisch mit interessanten Arbeiten vor mir habe.

Die dritte Option schließlich ist die künstliche Evolution. Lassen Sie das Programm, das mit der Welt interagiert, so aufgebaut sein, dass es sich weiterentwickeln und kopieren kann. Dann überlebt der Stärkste. Dafür müssen wir aber entweder das Kopieren manuell in das Programm schreiben oder eine Aufgabe stellen, für die das Selbstkopieren empfehlenswert ist, und warten, bis das Programm zunächst zufällig damit anfängt.

Die vierte und derzeit letzte Option ist die natürliche Evolution. Es existiert einfach und wir sehen es die ganze Zeit. Und das machen wir selbst – denn wir kopieren Programme. Darüber hinaus überleben diejenigen, die wir geschrieben haben, (bisher) besser, und „besser“ schließt auch die Kompatibilität mit bestehenden ein. Wenn in einer Situation des Wettbewerbs nur ein Programm ein bestimmtes Problem löst, wird es überleben, bis ein besseres geschrieben wird.

Es wurde oben darauf hingewiesen, wie ein Programm ein „Wissensstreben“ entwickeln kann. Wenn sich herausstellt, dass das Vorhandensein von Informationen nicht nur die Effizienz steigert, sondern das Überleben fördert, wird es starke Verstärkung erfahren. Und wenn das Programm feststellt, dass es für das Überleben nützlich ist, Informationen aus bestimmten Quellen zu ziehen oder Ihre Informationen an bestimmte Orte zu kopieren, können wir dafür ein anderes Wort als „Liebe“ finden?

Aber sobald wir sich entwickelnde, seriöse Lernprogramme (z. B. medizinische) erstellen, werden sie sich (von uns) vermehren, und diejenigen, die sich besser entwickelt haben und effizienter geworden sind, werden sich vermehren. Insbesondere der Effizienzgedanke wird automatisch beinhalten, einer Person faszinierende Bilder zu zeigen – bevor der Zweibeiner Zeit hat, mich abzuschalten, während ich brüte, oder noch besser – eine Kopie an einen Freund zu schicken. Übrigens entwickelt sich in diesem Sinne die gesamte Technologie im Allgemeinen, wenn eine Person als Kopiergerät verwendet wird.

Was die Hauptfrage betrifft - ist es gefährlich für eine Person? Mir scheint, dass die Gefahr dort entsteht, wo es eine gemeinsame Ressource gibt. Eine Person mit Programmen hat eine gemeinsame Ressource - das ist Maschinenzeit. Daher besteht die einzige wirkliche Gefahr darin, dass das Programm, das mit seinen eigenen Angelegenheiten beschäftigt ist, aufhört, einer Person zu dienen. Aber die Geschmeidigkeit, mit der die Rationalität einer Person als Spezies und die Fähigkeit, Eltern zu widerstehen, als Individuum wächst, lässt uns hoffen, dass die Rationalität und die Fähigkeit, einer Person in Computerprogrammen zu widerstehen, ziemlich reibungslos wachsen werden. Und wenn ein Mensch endlich lernen muss, sich selbst zu zählen, wird er es noch können. Andererseits gibt es einige Argumente dafür, dass die Entwicklung des Computergeistes ab einem gewissen Punkt schnell gehen wird (die Geschwindigkeit des Informationsaustauschs ist relativ hoch).

Abschließend darf man fragen: Wenn auf dem in diesem Artikel punktiert und ungefähr umrissenen Weg wirklich etwas entsteht, das ein Mensch erstaunt als Vernunft erkennt, wird diese Vernunft dann grundlegend anders sein als die menschliche? Um schnell und einfach die Nicht-Trivialität der Frage nach den Unterschieden in den Köpfen zu demonstrieren (sie scheint auf den ersten Blick klein zu sein im Vergleich zu der Frage, ob der Verstand überhaupt „es“ ist), geben wir eine einfache Beispiel. Niemand bezweifelt, dass unsere Kinder – Kinder im üblichen biologischen Sinne – intelligent sind; aber vor den Unterschieden ihres Geistes von unserem bleiben einige manchmal wie betäubt stehen.

Der Geist, der auf dem in diesem Artikel skizzierten Weg entsteht, kann mindestens einen scheinbar grundlegenden Unterschied zum menschlichen Geist haben – wenn man es wagt, ihn mit diesem Unterschied auszustatten. Dies ist eine perfekte Erinnerung an seine Geschichte, dh eine Aufzeichnung aller Aktionen, beginnend mit dem Moment, als es keine Frage der Vernunft gab.

Dann die Frage "Wie bin ich entstanden?" denn dieser Verstand wird - im Gegensatz zu unserem - keine Frage sein.

Innovatoren. Wie ein paar Genies, Hacker und Geeks die digitale Revolution brachten Isaacson Walter

Kann eine Maschine denken?

Kann eine Maschine denken?

Als Alan Turing darüber nachdachte, einen Computer mit gespeicherten Programmen zu bauen, machte er auf eine Aussage aufmerksam, die Ada Lovelace ein Jahrhundert zuvor in ihrer letzten Anmerkung zu Babbages Analytical Engine gemacht hatte. Sie behauptete, dass Maschinen nicht denken könnten. Turing fragte sich: Wenn eine Maschine ihr eigenes Programm aufgrund der von ihr verarbeiteten Informationen ändern kann, ist das nicht eine Form des Lernens? Könnte dies zur Schaffung künstlicher Intelligenz führen?

Fragen rund um künstliche Intelligenz sind bereits in der Antike aufgekommen. Gleichzeitig stellten sich auch Fragen zum menschlichen Bewusstsein. Wie bei den meisten Diskussionen dieser Art spielte Descartes eine wichtige Rolle dabei, sie in moderne Begriffe zu bringen. In seiner Abhandlung Discourse on Method von 1637 (die den berühmten Satz „Ich denke, also bin ich“ enthält) schrieb Descartes:

Wenn wir Maschinen bauen würden, die unserem Körper ähneln und unsere Handlungen so weit wie möglich nachahmen, dann hätten wir immer noch zwei sichere Mittel, um zu wissen, dass es sich nicht um echte Menschen handelt. Erstens könnte eine solche Maschine niemals Worte oder andere Zeichen verwenden, die sie wie wir kombinieren, um ihre Gedanken anderen mitzuteilen. Zweitens, obwohl eine solche Maschine viele Dinge genauso gut und vielleicht besser machen könnte als wir, würde sie bei anderen sicherlich versagen, und es würde sich herausstellen, dass sie unbewusst handelt.

Turing interessierte sich schon lange dafür, wie ein Computer die Funktionsweise des menschlichen Gehirns nachbilden könnte, und seine Neugier wurde noch mehr angeheizt durch die Arbeit an Maschinen, die verschlüsselte Nachrichten entziffern. Anfang 1943, als Bletchley Park schon fertig war Koloss, Turing überquerte den Atlantik und machte sich auf den Weg belllab, mit Sitz in Lower Manhattan, um sich mit einer Gruppe zu beraten, die an der Sprachverschlüsselung mit einem elektronischen Gerät (Scrambler) arbeitet, einer Technologie, die Telefongespräche verschlüsseln und entschlüsseln kann.

Dort traf er auf ein schillerndes Genie – Claude Shannon, der als Absolvent des Massachusetts Institute of Technology 1937 eine Diplomarbeit schrieb, die zum Klassiker wurde. Darin zeigte er, wie Boolesche Algebra, die logische Sätze als Gleichungen darstellt, mit elektronischen Schaltungen dargestellt werden kann. Shannon und Turing begannen sich zum Tee zu treffen und lange Gespräche zu führen. Beide interessierten sich für die Wissenschaft des Gehirns und verstanden, dass ihre Arbeit von 1937 etwas Gemeinsames und Grundlegendes hatte: Sie zeigten, wie eine Maschine, die mit einfachen binären Befehlen arbeitet, nicht nur mathematische, sondern auch alle möglichen logischen Probleme lösen kann. Und da die Logik die Grundlage des menschlichen Denkens war, könnte die Maschine theoretisch den menschlichen Intellekt reproduzieren.

„Shannon will [die Maschine] nicht nur mit Daten füttern, sondern auch mit Kulturgütern! sagte Turing einmal zu seinen Kollegen Bell-Labor beim Mittagessen. „Er will ihr etwas Musical vorspielen.“ Bei einem weiteren Mittagessen in der Kantine Bell-Labors Turing sprach mit seiner hohen Stimme, die jeder im Raum hören konnte: „Nein, ich werde kein mächtiges Gehirn konstruieren. Ich versuche, nur ein mittelmäßiges Gehirn zu konstruieren - wie zum Beispiel der Präsident der American Telephone and Telegraph Company.

Als Turing im April 1943 nach Bletchley Park zurückkehrte, freundete er sich mit seinem Kollegen Donald Michie an und sie verbrachten viele Abende damit, Schach in einem nahegelegenen Pub zu spielen. Sie diskutierten oft über die Möglichkeit, einen Schachcomputer zu bauen, und Turing beschloss, das Problem auf neue Weise anzugehen. Nämlich: nicht direkt die ganze Kraft der Maschine zu nutzen, um jeden möglichen Zug zu berechnen, sondern zu versuchen, der Maschine die Möglichkeit zu geben, das Schachspiel selbst zu lernen und ständig zu üben. Mit anderen Worten, geben Sie ihr die Möglichkeit, neue Gambits auszuprobieren und ihre Strategie nach jedem neuen Sieg oder Verlust zu verbessern. Ein solcher Ansatz wäre, wenn er erfolgreich wäre, ein bedeutender Durchbruch, der Ada Lovelace gefallen würde. Maschinen könnten nachweislich mehr als nur Anweisungen von Menschen befolgen – sie könnten aus Erfahrungen lernen und ihre eigenen Befehle verbessern.

„Es wird angenommen, dass Computer nur Aufgaben ausführen können, für die sie Anweisungen erhalten“, erklärte er im Februar 1947 in einem Vortrag vor der London Mathematical Society. „Aber ist es notwendig, dass sie immer so verwendet werden?“ Dann diskutierte er die Möglichkeiten neuer speicherprogrammierbarer Computer, die selbst Anleitungstabellen modifizieren könnten, und fuhr fort: „Sie könnten wie Schüler werden, die viel von ihrem Lehrer lernten, aber viel mehr von sich selbst hinzufügten. Ich denke, wenn das passiert, müssen wir zugeben, dass die Maschine das Vorhandensein von Intelligenz demonstriert.

Als er den Vortrag beendet hatte, verstummte das Publikum für einen Moment, verblüfft von Turings Aussage. Seine Kollegen vom National Physical Laboratory verstanden Turings Besessenheit, Denkmaschinen zu bauen, überhaupt nicht. Der Direktor des National Physical Laboratory, Sir Charles Darwin (Enkel des Evolutionsbiologen), schrieb 1947 an seine Vorgesetzten, Turing wolle „seine Arbeit an der Maschine noch weiter in Richtung Biologie ausdehnen“ und antwortete auf die Frage: „Kann eine solche Maschine gemacht werden, wer kann aus ihrer Erfahrung lernen?

Turings kühne Idee, dass Maschinen eines Tages wie Menschen denken könnten, wurde damals vehement bestritten und wird es immer noch. Es gab sowohl durchaus zu erwartende religiöse Einwände als auch nicht-religiöse, aber sehr emotionale, sowohl inhaltlich als auch klanglich. Der Neurochirurg Sir Geoffrey Jefferson erklärte in einer Rede anlässlich der Verleihung der prestigeträchtigen Lister-Medaille im Jahr 1949: Ihre Gedanken und Gefühle seien nicht wegen einer zufälligen Auswahl von Symbolen. Turings Antwort an einen Reporter aus London Timss, schien etwas frivol, aber subtil: "Der Vergleich ist vielleicht nicht ganz fair, da ein von einer Maschine geschriebenes Sonett von einer anderen Maschine besser beurteilt wird."

Damit war der Grundstein für Turings zweites bahnbrechendes Werk "Computing Machinery and the Mind" gelegt, das in der Zeitschrift veröffentlicht wurde Geist im Oktober 1950. Darin beschrieb er den Test, der später als Turing-Test bekannt wurde. Er begann mit einer klaren Aussage: „Ich schlage vor, über die Frage nachzudenken: ‚Können Maschinen denken?‘“ Mit der Aufregung eines Schülers entwickelte er ein Spiel – und es wird immer noch gespielt und diskutiert. Er bot an, dieser Frage eine echte Bedeutung zu geben, und er selbst gab eine einfache funktionale Definition der künstlichen Intelligenz: Wenn sich die Antwort einer Maschine auf eine Frage nicht von der Antwort unterscheidet, die eine Person gibt, dann haben wir keinen vernünftigen Grund dafür zu glauben, dass die Maschine nicht "denkt".

Turings Test, den er Imitationsspiel nannte, ist einfach: Ein Prüfer schickt schriftliche Fragen an eine Person und eine Maschine in einem anderen Raum und versucht herauszufinden, welche der Antworten zu der Person gehört. Turing bot ein Beispiel für einen Fragebogen an:

Frage: Bitte schreiben Sie mir ein Sonett über die Forth Bridge.

Antwort: Fragen Sie mich nicht danach. Ich war nie in der Lage, Gedichte zu schreiben.

F: Addieren Sie 34.957 und 70.764.

O (ca. 30 Sekunden Pause, dann kommt die Antwort): 105.621.

F: Spielen Sie Schach?

B: Ich habe nur K(König) an K1, und keine anderen Zahlen.

Du hast nur K auf K6 u R(Turm) zu R1. Du bist dran. Wohin gehst du?

O (nach einer Pause von 15 Sekunden): R auf R8, Mat.-Nr.

Dieses Turing-Dialogbeispiel enthält mehrere wichtige Dinge. Eine sorgfältige Untersuchung zeigt, dass der Antwortende nach dreißig Sekunden Nachdenken zusätzlich einen kleinen Fehler gemacht hat (die richtige Antwort ist 105.721). Bedeutet dies, dass er ein Mensch war? Vielleicht. Aber andererseits gab diese schlaue Maschine vielleicht vor, ein Mensch zu sein. Turing antwortete auch auf Jeffersons Argument, dass eine Maschine kein Sonett schreiben könne: Es ist möglich, dass die obige Antwort von einem Mann gegeben wurde, der bekannte, dass er keine Gedichte schreiben könne. Später in dem Artikel lieferte Turing eine weitere imaginäre Umfrage, die die Schwierigkeit demonstriert, das Schreiben von Sonetten als Kriterium für das Menschsein zu verwenden:

F: Glauben Sie, dass die erste Zeile des Sonetts: „Soll ich Sie mit einem Sommertag vergleichen“ nicht verdorben oder sogar verbessert würde, wenn sie durch „Frühlingstag“ ersetzt würde?

A: Dann wird die Größe verletzt.

F: Wie wäre es mit einer Umstellung auf „Wintertag“? Dann ist die Größe ok.

A: Ja, aber niemand möchte mit einem Wintertag verglichen werden.

F: Wollen Sie damit sagen, dass Mr. Pickwick Sie an Weihnachten erinnert?

O: In gewisser Weise.

F: Trotzdem fallen die Weihnachtsfeiertage auf einen Wintertag, und ich glaube nicht, dass Mr. Pickwick Einwände gegen den Vergleich erheben würde.

A: Ich glaube nicht, dass Sie das ernst meinen. Unter einem Wintertag versteht man in der Regel einen typischen Wintertag und keinen besonderen wie Weihnachten.

Der Punkt von Turings Beispiel ist, dass es möglicherweise nicht möglich ist zu sagen, ob der Befragte ein Mensch oder eine Maschine war, die vorgab, ein Mensch zu sein.

Turing schlug vor, dass ein Computer dieses Simulationsspiel gewinnen könnte: „Ich glaube, dass es in etwa fünfzig Jahren möglich sein wird, zu lernen, wie man Computer programmiert … dass sie Simulationen so gut spielen können, dass die Chance besteht, dass der durchschnittliche Prüfer den Antwortenden richtig identifiziert nach fünf Minuten wird die Umfrage nicht mehr als 70 % betragen.

In seiner Arbeit versuchte Turing, viele mögliche Einwände gegen seine Definition des Geistes zu widerlegen. Er wies das theologische Argument zurück, dass Gott nur den Menschen Seele und Verstand gegeben habe, und argumentierte, dass dies „eine ernsthafte Einschränkung der Allmacht des Allmächtigen impliziert“. Er fragte, ob Gott „die Freiheit habe, einem Elefanten eine Seele zu verleihen, wenn Er es für richtig halte“. Nehmen wir mal an. Aus der gleichen Logik (die angesichts der Tatsache, dass Turing ein Ungläubiger war, ätzend klingt) folgt, dass Gott sicherlich eine Seele und eine Maschine verleihen kann, wenn Er dies wünscht.

Der interessanteste Einwand, auf den Turing – insbesondere für unsere Erzählung – antwortet, ist der Einwand von Ada Lovelace, die 1843 schrieb: „Die Analytical Engine gibt nicht vor, etwas wirklich Neues zu schaffen. Die Maschine kann alles, was wir ihr vorschreiben können. Sie kann der Analyse folgen, aber keine analytischen Abhängigkeiten oder Wahrheiten antizipieren.“ Mit anderen Worten, im Gegensatz zum menschlichen Verstand kann ein mechanisches Gerät keinen freien Willen haben oder eigene Initiativen ergreifen. Es kann nur das tun, was programmiert ist. In seiner Arbeit von 1950 widmete Turing diesem Sprichwort einen Abschnitt und nannte ihn "Lady Lovelace's Objection".

Die geniale Antwort auf diesen Einwand war das Argument, dass die Maschine tatsächlich lernen kann und dadurch zu einer denkenden Exekutive wird, die in der Lage ist, neue Gedanken zu produzieren. „Anstatt ein Programm zu schreiben, das das Denken eines Erwachsenen nachahmt, warum nicht versuchen, ein Programm zu schreiben, das das Denken eines Kindes nachahmt? er fragt. „Wenn Sie den entsprechenden Lernprozess starten, könnten Sie schließlich die Intelligenz eines Erwachsenen erlangen.“ Er räumte ein, dass das Unterrichten eines Computers sich von dem eines Kindes unterscheiden würde: „Zum Beispiel ist es unmöglich, ihn mit Beinen auszustatten, also kann man ihn nicht bitten, Kohle in einer Kiste zu sammeln. Augen kann er wohl nicht haben... Du kannst dieses Wesen nicht in die Schule schicken - für andere Kinder wird es zum Gespött. Daher muss die Babymaschine anders lernen. Turing schlug ein System von Bestrafungen und Belohnungen vor, das die Maschine dazu ermutigen würde, einige Aktionen zu wiederholen und andere zu vermeiden. Schließlich könnte eine solche Maschine eigene Ideen und Erklärungen für dieses oder jenes Phänomen entwickeln.

Aber selbst wenn eine Maschine den Geist nachahmen könnte, argumentierten Turings Kritiker, wäre es nicht wirklich ein Geist. Wenn eine Person den Turing-Test besteht, verwendet sie Wörter, die mit der realen Welt, Emotionen, Erfahrungen, Empfindungen und Wahrnehmungen verbunden sind. Das macht die Maschine nicht. Ohne solche Verbindungen wird die Sprache zu einem sinnlosen Spiel.

Dieser Einwand führte zur am längsten andauernden Widerlegung des Turing-Tests, den der Philosoph John Searle 1980 in seinem Aufsatz formulierte. Er schlug ein Gedankenexperiment namens „Chinese Room“ vor, bei dem einer englischsprachigen Person, die kein Chinesisch kann, ein vollständiges Regelwerk gegeben wird, um zu erklären, wie man eine beliebige Kombination chinesischer Schriftzeichen bildet. Er erhält eine Reihe von Hieroglyphen und stellt Kombinationen daraus her, wobei er die Regeln anwendet, aber die Bedeutung der von ihm verfassten Sätze nicht versteht. Wenn die Anweisungen gut genug sind, könnte die Person den Prüfer davon überzeugen, dass sie wirklich Chinesisch spricht. Trotzdem würde er keinen einzigen von ihm verfassten Text verstehen, er würde keinen Sinn enthalten. In der Terminologie von Ada Lovelace würde er nicht behaupten, etwas Neues zu schaffen, sondern einfach die Aktionen ausführen, die ihm befohlen wurden. In ähnlicher Weise wird die Maschine in Turings Imitationsspiel, egal wie gut sie den menschlichen Geist nachahmen kann, nichts verstehen oder sich dessen bewusst sein, was gesagt wird. Es ist nicht sinnvoller zu sagen, dass eine Maschine "denkt", als zu sagen, dass eine Person, die zahlreiche Anweisungen befolgt, Chinesisch versteht.

Eine der Antworten auf Searles Einwände war die Behauptung, dass, selbst wenn eine Person kein Chinesisch verstehe, das gesamte System als Ganzes, d. h. ein Mensch (Datenverarbeitungseinheit), eine Anweisung zum Umgang mit Schriftzeichen im chinesischen Raum zusammenbaue (Programm) und Dateien mit Zeichen (Daten) können tatsächlich Chinesisch verstehen. Hier gibt es keine endgültige Antwort. Tatsächlich sind der Turing-Test und seine Einwände bis heute das am meisten diskutierte Thema in den Kognitionswissenschaften.

Einige Jahre lang, nachdem Turing Computing Machines and the Mind geschrieben hatte, schien es ihm Spaß zu machen, sich an dem Streit zu beteiligen, den er selbst provoziert hatte. Mit bissigem Humor entgegnete er den Behauptungen derer, die über Sonette und erhabenes Bewusstsein schwatzten. 1951 machte er sich über sie lustig: „Eines Tages werden die Damen mit ihren Computern im Park spazieren gehen und sich sagen: „Mein Computer hat heute Morgen so komische Sachen gesagt!“, wie sein Mentor Max Newman später feststellte: „ seine humorvollen, aber brillant treffenden Analogien, mit denen er seine Ansichten darlegte, machten ihn zu einem reizvollen Gesprächspartner.

Es gab ein Thema, das im Laufe der Diskussionen mit Turing mehr als einmal auftauchte und das bald berüchtigt werden sollte. Es befasste sich mit der Rolle von Sexualität und emotionalen Wünschen, die Maschinen unbekannt sind, für die Funktionsweise des menschlichen Gehirns. Ein Beispiel ist die öffentliche Debatte, die im Januar 1952 im Fernsehsender stattfand BBC zwischen Turing und dem Neurochirurgen Sir Geoffrey Jefferson. Moderiert wurde diese Debatte von dem Mathematiker Max Newman und dem Wissenschaftsphilosophen Richard Braithwaite. Braithwaite, der argumentierte, dass es, um eine echte Denkmaschine zu schaffen, "notwendig ist, die Maschine mit so etwas wie einer Reihe von körperlichen Bedürfnissen auszustatten", erklärte: "Die Interessen des Menschen werden zu einem großen Teil von seinen Leidenschaften, Wünschen, Motivationen und Motivationen bestimmt Instinkte." Newman mischte sich ein und sagte, dass Maschinen „ziemlich begrenzte Bedürfnisse haben und nicht rot werden können, wenn es ihnen peinlich ist“. Jefferson ging sogar noch weiter, verwendete wiederholt den Begriff „sexuelle Triebe“ als Beispiel und bezog sich auf menschliche „Emotionen und Instinkte, etwa solche, die mit Sex zusammenhängen“. "Der Mensch ist ein Opfer sexueller Begierden", sagte er, "und kann sich lächerlich machen." Er sprach so viel darüber, wie sexuelle Triebe das menschliche Denken beeinflussen, dass die Herausgeber BBC schnitt einige seiner Bemerkungen aus der Show heraus, einschließlich der Aussage, dass er nicht glauben würde, dass ein Computer denken kann, bis er sah, wie er das Bein einer Computerfrau berührte.

Turing, der seine Homosexualität immer noch verheimlichte, verstummte in diesem Teil der Diskussion. In den Wochen vor der Aufzeichnung der Übertragung vom 10. Januar 1952 tat er eine Reihe von Dingen, die so rein menschlich waren, dass eine Maschine sie unverständlich gefunden hätte. Er hatte gerade seine akademische Arbeit abgeschlossen und dann eine Geschichte darüber geschrieben, wie er dieses Ereignis feiern würde: „Es ist schon eine ganze Weile her, seit er jemanden ‚hatte‘, eigentlich seit letztem Sommer, als er diesen Soldaten in Paris traf. Jetzt, da seine Arbeit erledigt ist, kann er vernünftigerweise glauben, dass er sich das Recht auf eine Beziehung mit einem schwulen Mann verdient hat, und er wusste, wo er den richtigen Kandidaten finden konnte.

In Manchester, in der Oxford Street, fand Turing einen neunzehnjährigen Penner namens Arnold Murray und begann eine Beziehung mit ihm. Als er zurückkam BBC Nachdem er die Show aufgenommen hatte, lud er Murray ein, bei ihm einzuziehen. Eines Nachts erzählte Turing dem jungen Murray von seiner Idee, Schach gegen einen hinterhältigen Computer zu spielen, den er schlagen könne, was ihn dazu brachte, zwischen Wut, Freude und Selbstgefälligkeit zu wechseln. Die Beziehungen wurden in den folgenden Tagen komplizierter, und Turing kam eines Abends nach Hause und stellte fest, dass er ausgeraubt worden war. Der Täter entpuppte sich als Freund Murrays. Turing meldete den Vorfall der Polizei, am Ende erzählte er der Polizei von seiner sexuellen Beziehung zu Murray und Turing wurde wegen "unanständigen Verhaltens" festgenommen.

Bei seinem Prozess im März 1952 bekannte sich Turing schuldig, obwohl er deutlich machte, dass er keine Reue empfand. Max Newman wurde als Zeuge vorgeladen, der eine Stellungnahme zum Charakter des Angeklagten abgab. Verurteilt und disqualifiziert, musste Turing eine Wahl treffen: Gefängnis oder Freilassung, Hormontherapie mit Injektionen von synthetischem Östrogen, das sexuelle Begierden tötet und eine Person mit einer chemisch gesteuerten Maschine vergleicht. Er entschied sich für Letzteres und absolvierte den Kurs für ein Jahr.

Zunächst schien Turing all dies gelassen zu ertragen, doch am 7. Juni 1954 beging er Selbstmord, indem er einen mit Zyanid getränkten Apfel abbiss. Seine Freunde bemerkten, dass er die Szene aus Schneewittchen immer mochte, in der die böse Fee einen Apfel in einen giftigen Sud taucht. Er wurde in seinem Bett gefunden, mit Schaum vor dem Mund, Zyanid in seinem Körper und einem halb aufgegessenen Apfel, der neben ihm lag.

Können Maschinen das?

John Bardeen (1908–1991), William Shockley (1910–1989), Walter Brattain (1902–1987) bei Bell Labs, 1948

Erster bei Bell Labs hergestellter Transistor

Kollegen, darunter Gordon Moore (sitzend, links) und Robert Noyce (stehend, Mitte, mit einem Glas Wein) stoßen am Tag der Verleihung des Nobelpreises 1956 auf William Shockley (am Kopfende des Tisches) an.

Dieser Text ist eine Einführung. Aus dem Buch Reflexionen eines Schlittenhundes Autor Erschow Wassili Wassiljewitsch

Maschine Was ich durch die Luft fliege, heißt "Tu-154-Mittelstrecken-Passagierflugzeug". Aber so wie im Englischen das Wort „Ship“ weiblich ist, so sprechen wir Piloten von unserem heimischen Flugzeug: „she“, „car“. Unser Futterautomat. Dies allein impliziert, dass wir

Aus dem Buch Memoir Prosa Autor Tsvetaeva Marina

GONCHAROV UND DIE MASCHINE In unserer bisherigen Darstellung wurde alles zusammen gesungen. Goncharova der Natur, der Menschen, der Völker, mit all der Antike des Dorfblutes in der Neuheit der edlen Adern, Goncharova - das Dorf, Goncharova - die Antike. Goncharov-Baum, uralt, rustikal, hölzern, holzig,

Aus dem Buch Moskauer Gefängnisse Autor Myasnikov Alexey

„So darfst du nicht denken“ Ein bärtiger Mann geht nachdenklich am Empfangsgebäude der Staatsanwaltschaft vorbei. Lange Strähnen fallen von der Glatze, verschmelzen mit dem grauen Bart, groß, schwarzbraun. Hartnäckige Augen fühlen vorsichtig das antike Ornament der Fassade. So beschäftigt damit

Aus dem Buch Artikel aus der Zeitung Iswestija Autor Bykow Dmitri Lwowitsch

Aus dem Buch Band 4. Buch 1. Erinnerungen von Zeitgenossen Autor Tsvetaeva Marina

Goncharova und die Maschine In unserer Darstellung wurde bisher alles zusammen gesungen. Goncharova der Natur, der Menschen, der Völker, mit all der Antike des Dorfblutes in der Neuheit der edlen Adern, Goncharova - das Dorf, Goncharova - die Antike. Goncharova - Baum, uralt, rustikal, aus Holz,

Aus dem Buch Die Reise eines Rockamateurs Autor Zhitinsky Alexander Nikolaevich

TIME MACHINE Die Moskauer Gruppe TIME MACHINE entstand um die Jahreswende 1968/69, ihre Mitglieder waren damals noch in der Schule. A. Makarevich (Gitarre, Gesang), A. Kutikov (Bass), S. Kavagoe (Orgel), Yu. Borzov (Schlagzeug) spielten in einer der ersten stabilen Kompositionen. Erster im Repertoire

Aus dem Buch Business is Business: 60 True Stories of How Ordinary People Started and Success Autor Gansvind Igor Igorevich

Aus dem Buch Confessions of Four Autor Pogrebizhskaya Elena

Drittes Kapitel Denken und Leiden oder Wen die russische Philosophie verloren hat Ich persönlich hielt mich gern für einen unsentimentalen Menschen. Und wenn ich zwischen den vergilbten Seiten "ohrlose" verwelkte Blumen hatte, dann alles durch Willensanstrengung vor langer Zeit

Aus dem Buch Melancholie eines Genies. Lars von Trier. Leben, Filme, Phobien Autor Thorsen Niels

Dream Machine Er dreht den Schlüssel im Schloss um und das Golfcart startet mit einem leisen elektrischen Surren. Dann wendet er den Wagen, biegt von der Straße ab und schubst uns mit sicherer Hand zwischen den roten und gelben Häusern hindurch.

Aus dem Buch Comandante Reflexionen Autor Castro Fidel

Der Tötungsmaschinen-Sonntag ist ein guter Tag, um Science-Fiction zu lesen: Es wurde angekündigt, dass die CIA beabsichtigt, Hunderte von Seiten an Material über ihre illegalen Aktivitäten freizugeben, einschließlich der Pläne, ausländische Regierungschefs zu eliminieren. Plötzlich die Veröffentlichung dieser

Aus dem Buch Airway Autor Sikorsky Igor Iwanowitsch

Was ein Flugzeug mit einem Motor leisten kann und was nicht Nachdem die ersten Flugzeuge in Europa in die Lüfte gehoben wurden, begann sich das Geschäft mit dem Fliegen sehr schnell und erfolgreich zu entwickeln. Es dauerte mehrere Jahrzehnte, bis Eisenbahnen in Betrieb genommen wurden.

Autor Isaakson Walter

Kann eine Maschine denken? Als Alan Turing darüber nachdachte, einen Computer mit gespeicherten Programmen zu bauen, machte er auf eine Aussage aufmerksam, die Ada Lovelace ein Jahrhundert zuvor in ihrer letzten „Anmerkung“ zu Babbages Beschreibung der Analytical Engine gemacht hatte. Sie ist

Aus dem Buch Innovatoren. Wie ein paar Genies, Hacker und Geeks die digitale Revolution vorangetrieben haben Autor Isaakson Walter

„How We Can Think“ Die Idee, einen Personal Computer zu schaffen, den jeder zu Hause haben könnte, kam Vanvar Bush im Jahr 1945. Er baute einen großen analogen Computer am Massachusetts Institute of Technology (MIT) zusammen und baute eine Zusammenarbeit zwischen ihnen auf

Aus dem Buch Aria Margarita Autor Puschkin Margarita Anatoljewna

„How We Can Think“ Die Idee, einen Personal Computer zu entwickeln, den jeder zu Hause haben könnte, kam Vanvar Bush 1945. Er baute einen großen analogen Computer am Massachusetts Institute of Technology (MIT) zusammen und baute eine Zusammenarbeit zwischen ihnen auf

Aus dem Buch False Treatise on Manipulation. Fragmente des Buches Autor Blandiana Ana

DEATH MACHINE (Musik von S. Terentyev) Ich denke, niemand wird diesen Song in der Form hören, wie er für das Chimera-Album aufgenommen wurde. In extremen Fällen erscheint es in einer Sammlung. Höchstwahrscheinlich wird Terenty es kreativ überarbeiten, verlangsamen und durch einen Fleischwolf führen

Aus dem Buch des Autors

Auto am Tor Ich kann mich nicht mehr genau erinnern, wann er vor unserem Tor auftauchte - damals, als es in Bukarest noch viel weniger Autos gab als heute, und es genügend Parkplätze auf der Straße gab - dieser weiße Skoda, und rein es ist eine Frau, dreißig oder vierzig Jahre alt, stark

Ich werde überlegen, ob Maschinen denken können. Dazu müssen wir aber zunächst die Bedeutung der Begriffe „Maschine“ und „Denken“ definieren. Es wäre möglich, diese Definitionen so zu konstruieren, dass sie den üblichen Gebrauch dieser Wörter so gut wie möglich widerspiegeln, aber ein solches Vorgehen ist mit einigen Gefahren behaftet. Der Punkt ist, dass, wenn wir die Bedeutung der Wörter „Maschine“ und „Denken“ untersuchen, indem wir untersuchen, wie diese Wörter normalerweise definiert werden, es für uns schwierig sein wird, den Schluss zu vermeiden, dass die Bedeutung dieser Wörter und die Antwort auf die Frage "Können Maschinen denken?" sollte durch eine statistische Erhebung ähnlich einem Gallup-Fragebogen ermittelt werden. Dies ist jedoch lächerlich. Anstatt zu versuchen, eine solche Definition zu geben, werde ich unsere Frage durch eine andere ersetzen, die eng damit verwandt ist und in Worten mit relativ klarer Bedeutung ausgedrückt wird.

Diese neue Form kann mit Begriffen eines Spiels beschrieben werden, das wir das "Nachahmungsspiel" nennen werden. Dieses Spiel wird von drei Personen gespielt: einem Mann (A), einer Frau (B) und jemandem, der Fragen stellt (C), der eine Person jeden Geschlechts sein kann. Der Fragesteller ist durch die Wände des Raumes, in dem er sich befindet, von den beiden anderen Spielteilnehmern getrennt. Das Ziel des Spiels für den Fragesteller ist es, festzustellen, welcher der anderen beiden Spieler im Spiel ein Mann (A) und welcher eine Frau (B) ist. Er kennt sie als X und Y, und am Ende des Spiels sagt er entweder „X ist A und Y ist B“ oder „X ist B und Y ist A“. Er darf Fragen stellen wie:

S: „Ich werde X bitten, mir seine (oder ihre) Haarlänge mitzuteilen.“

Nehmen wir nun an, dass X tatsächlich A ist. In diesem Fall muss A die Antwort geben. Für A besteht das Ziel des Spiels darin, C dazu zu bringen, zu falschen Schlussfolgerungen zu kommen. Seine Antwort könnte also etwa so lauten:

"Meine Haare sind kurz geschnitten und die längsten Strähnen sind ungefähr 22 cm lang."

Damit der Fragesteller nicht per Stimme feststellen konnte, wer von den beiden anderen Spielteilnehmern ein Mann und wer eine Frau ist, hätten die Antworten auf die Fragen schriftlich, und noch besser – auf einer Schreibmaschine gegeben werden müssen. Der Idealfall wäre eine telegrafische Nachricht zwischen den beiden Räumen, in denen sich die Spieler aufhalten. Wenn dies nicht möglich ist, sollten die Antworten und Fragen über einen Mittelsmann übermittelt werden. Das Ziel des Spiels für den dritten Spieler, die Frau (B), ist es, dem Fragesteller zu helfen. Für sie ist es wahrscheinlich die beste Strategie, wahrheitsgemäße Antworten zu geben. Sie kann auch Bemerkungen machen wie „Frau – ich, hör nicht auf ihn!“, aber das bringt nichts, da ein Mann solche Bemerkungen auch machen kann.

Stellen wir uns nun die Frage: „Was passiert, wenn statt A eine Maschine an diesem Spiel teilnimmt?“ Wird der Fragesteller in diesem Fall so oft Fehler machen wie in einem Spiel, bei dem die Teilnehmer nur Menschen sind? Diese Fragen werden unsere ursprüngliche Frage „Können Maschinen denken?“ ersetzen.

II. Kritik an der Neuformulierung des Problems

So wie wir die Frage stellen: „Was ist die Antwort auf das Problem in seiner neuen Form?“, kann man fragen: „Verdient es das Problem, in seiner neuen Formulierung betrachtet zu werden?“. Über diese letzte Frage wollen wir nachdenken, ohne sie auf unbestimmte Zeit aufzuschieben, um später nicht darauf zurückzukommen.

Die Neuformulierung unseres Problems hat den Vorteil, eine klare Unterscheidung zwischen den körperlichen und geistigen Fähigkeiten des Menschen zu treffen. Kein Ingenieur oder Chemiker behauptet, ein Material zu schaffen, das von menschlicher Haut nicht zu unterscheiden wäre. Eine solche Erfindung könnte eines Tages gemacht werden. Aber selbst wenn man davon ausgeht, dass ein Material geschaffen werden kann, das von menschlicher Haut nicht zu unterscheiden ist, halten wir es dennoch für wenig sinnvoll, zu versuchen, die "denkende Maschine" menschlicher zu machen, indem man sie in solches künstliche Fleisch kleidet. Die von uns gegebene Form des Problems spiegelt diesen Umstand unter der Bedingung wider, dass der Fragesteller nicht mit anderen Spielteilnehmern in Kontakt kommt, sie sieht oder ihre Stimmen hört. Einige weitere Vorteile des eingeführten Kriteriums können anhand von Beispielen für mögliche Fragen und Antworten gezeigt werden. Zum Beispiel:

S: Bitte schreiben Sie ein Sonett über die Brücke über den Fluss Forth.

A: Bring mich da raus. Ich musste nie Gedichte schreiben.

C: Addiere 34.957 zu 70.764.

A (schweigt etwa 30 Sekunden, antwortet dann): 105 621.

S: Spielst du Schach?

S: Ich habe nur einen König auf e8 und keine anderen Figuren. Du hast nur einen König auf e6 und einen Turm auf h1. Wie wirst du spielen?

A (nach 15 Sekunden Stille): Th8. Matte.

Uns scheint, dass die Frage-Antwort-Methode geeignet ist, fast jeden Bereich menschlicher Tätigkeit abzudecken, den wir in Betracht ziehen wollen. Wir wollen weder die Maschine dafür verantwortlich machen, dass sie bei Schönheitswettbewerben nicht glänzen kann, noch den Menschen dafür verantwortlich machen, dass er in einem Wettbewerb mit einem Flugzeug besiegt wurde, die Bedingungen des Spiels machen diese Mängel irrelevant. Diejenigen, die antworten, können, wenn sie es für richtig halten, mit ihrem Charme, ihrer Stärke oder ihrem Mut prahlen, wie sie wollen, und der Fragesteller kann dafür keinen praktischen Beweis verlangen.

Vielleicht kann man unser Spiel damit kritisieren, dass darin die Vorteile weitgehend auf Seiten der Maschine liegen. Wenn jemand versuchen würde, sich als Maschine auszugeben, würde er natürlich sehr erbärmlich aussehen. Er würde sich sofort durch Langsamkeit und Ungenauigkeit in Berechnungen verraten. Außerdem, kann eine Maschine nicht etwas tun, was man als Denken bezeichnen sollte, was sich aber sehr von dem unterscheidet, was ein Mensch tut? Dieser Einwand ist sehr gewichtig. Aber als Antwort darauf können wir zumindest sagen, dass, wenn es noch möglich ist, eine Maschine zu implementieren, die bei der Imitation zufriedenstellend spielt, dann sollte dieser Einwand nicht besonders besorgt sein.

Es sei angemerkt, dass beim „Imitationsspiel“ die Möglichkeit nicht ausgeschlossen ist, dass die bloße Nachahmung menschlichen Verhaltens nicht die beste Strategie für die Maschine ist. Ein solcher Fall ist möglich, aber ich glaube nicht, dass er uns zu etwas wesentlich Neuem führen wird. Jedenfalls hat niemand versucht, unsere Spieltheorie in diese Richtung zu erforschen, und wir gehen davon aus, dass die beste Strategie für eine Maschine darin besteht, Antworten zu geben, die eine Person in der richtigen Umgebung geben würde.

III. Am Spiel beteiligte Maschinen

Die in Abschnitt I gestellte Frage wird erst dann ganz konkret, wenn wir präzisieren, was genau mit dem Wort „Maschine“ gemeint ist. Natürlich möchten wir jede Art von technischer Ausrüstung im Spiel verwenden können. Wir neigen auch dazu, die Möglichkeit zuzugeben, dass ein Ingenieur oder eine Gruppe von Ingenieuren eine funktionierende Maschine bauen kann, aber keine zufriedenstellende Beschreibung ihrer Funktionsweise geben kann, weil die von ihnen verwendete Methode im Grunde experimentell war. [durch Ausprobieren]. Schließlich möchten wir Menschen, die auf gewöhnliche Weise geboren wurden, aus der Kategorie der Maschinen ausschließen. Es ist schwierig, eine Definition so zu konstruieren, dass sie diese drei Bedingungen erfüllt. Es ist zum Beispiel möglich, zu verlangen, dass alle Konstrukteure einer Maschine das gleiche Geschlecht haben, aber in Wirklichkeit reicht dies jedoch nicht aus, da es offenbar möglich ist, aus einer einzigen entnommenen Zelle ein vollständiges Individuum zu züchten (zum Beispiel) aus menschlicher Haut. Dies wäre eine Meisterleistung der biologischen Ingenieurskunst, die höchstes Lob verdient, aber wir neigen nicht dazu, diesen Fall als "Bau einer Denkmaschine" zu betrachten.

Dies führt uns dazu, darüber nachzudenken, die Anforderung aufzugeben, dass jede Art von Technologie im Spiel erlaubt sein sollte. Wir neigen zu dieser Idee umso mehr, als unser Interesse an "denkenden Maschinen" aus einer speziellen Art von Maschinen entstand, die üblicherweise als "elektronischer Computer" oder "digitaler Computer" bezeichnet werden. Daher lassen wir nur digitale Computer an unserem Spiel teilnehmen.