RECHERCHE SUR LE SITE

Références
bibliographiques
avec le catalogue


En plein texte
avec Google

Recherche avancée
 

Tous les ouvrages
numérisés de cette
bibliothèque sont
disponibles en trois
formats de fichiers :
Word (.doc),
PDF et RTF

Pour une liste
complète des auteurs
de la bibliothèque,
en fichier Excel,
cliquer ici.
 

Collection « Les sciences sociales contemporaines »

Stanislaw Ulam
La machine créatrice ?
Conférence aux Rencontres internationales de Genève, 1965, Le robot, la bête et l'homme


Une édition électronique réalisée à partir des Rencontres internationales de Genève, 1965, Le robot, la bête et l'homme, pp. 31-42. Textes des conférences et des entretiens organisés par les Rencontres internationales de Genève 1965 avec le concours de l'UNESCO. Neuchatel: Les Éditions de la Baconnière, 1965, 360 pp. Collection: Histoire et société d'aujourd'hui. Une édition numérique réalisée par Pierre Palpant, bénévole, Paris.

Rappel : Le thème des XXe Rencontres 1965 :
Le robot, la bête et l’homme.

Qu’est-ce que l’humain ? De nos jours où tout se passe comme si des cybernéticiens et des biologistes visaient à réduire en fin de compte l’homme à un robot ou à une espèce animale supérieure, il devient urgent de se demander s’il est vraiment possible de construire un robot qui soit un homme, avec cependant des capacités de calcul, de mémoire et de prévision supérieures à celles de l’« homme naturel ». Ou s’il y a dans celui-ci une quintessence que le robot le plus parfait ne possédera jamais.

En d’autres termes, les machines à traduire, à penser, à décider, contestent-elles l’homme ? Dans le domaine de la création artistique en particulier, est-il vraiment possible, comme le prétendent certains, de produire mécaniquement des œuvres d’art ? Et aujourd’hui que l’idée de la pluralité des mondes habités fait son chemin, si les astronautes rencontraient effectivement un jour dans un astre quelconque des vivants qui nous ressemblent, à quels critères recourraient-ils pour décider si ce sont ou non des hommes ?
La conférence de Stanislaw Ulam (3 septembre 1965), présentée ci-dessous, et l’entretien public qui s’y rapporte (4 septembre 1965), présidé par M. André Chavanne, sont aux pages 31-42 et 189-211 du recueil des Rencontres internationales de Genève 1965, Editions de La Baconnière, Neuchâtel, 1965.

[Voir la page web de l'auteur.]

LA MACHINE CRÉATRICE ?

 

Cette conférence m’a donné beaucoup de soucis, car mon français m’inquiète, et il ne me reste plus qu’à m’excuser de mon français rouillé et boiteux.

Cependant, je pense que ce n’est peut-être pas si mauvais d’avoir un langage assez restreint, car je dois vous parler ce soir des machines à calculer et de ce qu’elles peuvent faire. Comme vous le savez peut-être, il y a des essais en cours pour faire des machines à traduire. Pour le moment cela se fait très mal. Or mon discours sera un peu comme une traduction faite par la machine. Evidemment, cela restreint un peu ma pensée, et m’oblige à réduire le domaine sur lequel je voudrais vous parler. Mais par cet exemple, vous voyez déjà que les moyens purement techniques ont une influence sur le domaine de la pensée.

C’est sur la machine à calculer électronique que je vais parler ce soir. Vous savez que dans l’histoire et le développement des machines en général, et en particulier des machines qui sont liées de près ou de loin à la pensée même, il convient de souligner le rôle de Descartes. Mais il ne faut pas oublier de nommer Pascal qui ne s’est pas contenté de parler du rôle de la machine, mais qui a construit des machines à calculer simples et efficaces. Ces machines pouvaient additionner, soustraire, multiplier, diviser, et c’est en fait, jusqu’à présent, encore tout ce que les machines peuvent faire.

Il est intéressant de remarquer que, contrairement à l’opinion généralement répandue, ce ne sont pas les ingénieurs et les technocrates qui ont les premiers pensé à construire des machines, mais des hommes comme Pascal, qui était un philosophe, et Leibniz. Ce philosophe et mathématicien allemand avait fait tout un programme théorique pour le développement des machines à penser, et le développement de la logique en tant que base de la pensée humaine. Il a laissé des manuscrits qui parlent de la possibilité d’une logique universelle qui permettrait, après son développement, l’exécution par la machine d’une grande partie de notre pensée.

On peut reculer à de l’histoire plus ancienne encore. Chez les anciens Grecs, Aristote avait trouvé — c’était une découverte, et à priori il n’y avait aucune raison de le prévoir — que dans le formalisme de la logique il suffisait d’avoir un assez petit nombre d’axiomes et de règles. A priori on pourrait en douter parce que la portée de notre pensée est extraordinairement riche : elle peut embrasser tant de choses, en nous-mêmes et dans le monde qui nous entoure. Tout de même Aristote a trouvé qu’avec un très petit nombre d’axiomes, de règles, de combinaisons d’axiomes permettant de composer des expressions nouvelles, on pouvait formuler la plus grande partie de la pensée sur un grand nombre de sujets bien définis. La logique d’Aristote n’englobe pas tous les sujets de mathématique et je n’en parlerai pas ce soir car cela prendrait trop de temps.

J’aimerais souligner ce fait : c’est la coïncidence du développement purement abstrait dans la logique mathématique et les progrès technologiques dans le développement de l’électronique qui ont culminé, il y a vingt ans, dans la création des machines à calculer électroniques.

Un des thèmes de ma conférence va être la simplicité à l’origine des constructions. En effet, en mathématiques, en logique, on commence avec très peu d’expressions et on en fait des combinaisons pour aboutir à des choses plus complexes. Mais dans le monde matériel on trouve aussi ce qu’on appelle des lois de la physique : par exemple les lois newtoniennes du mouvement. Elles sont exprimées avec un très petit nombre de mots et en dérivant les conséquences on arrive à expliquer un vaste nombre de phénomènes très complexes. Quant aux machines, il y a des gens qui ont peur qu’elles puissent surpasser l’homme et devenir un énorme danger. J’espère montrer plus loin qu’à mon avis cette crainte est sans fondement. D’autre part il y a les gens qui expriment un certain mépris pour ces outils purement pratiques et qui disent qu’un vrai philosophe ne devrait pas s’occuper de tels développements purement matériels.

En premier lieu je voudrais vous dire qu’une machine même très compliquée, comme la machine électronique, ne me semble rien de plus que l’extension d’un outil aussi commun que le crayon. Le crayon est aussi une extension mécanique de notre pensée. La possibilité de faire des signes sur du papier et de travailler sur eux permet à l’homme d’obtenir des puissances nouvelles et mystérieuses. Avec la mémoire limitée d’un homme on peut poursuivre le raisonnement jusqu’à un certain point. Avec le crayon ce sont les symboles fixés sur le papier qui aident la mémoire et introduisent des suggestions nouvelles.

Je voudrais aussi expliquer en quelques mots ce qu’est une machine électronique en tant qu’objet physique. Les machines les plus modernes sont d’un assez petit volume et on peut les installer dans de petites pièces. Que peuvent-elles faire ? Les opérations d’arithmétique : additionner, soustraire, multiplier et diviser. En outre, elles peuvent suivre un plan logique prédéterminé, c’est-à-dire prendre des décisions de logique aristotélicienne, ou selon un mot plus moderne, faire des opérations d’algèbre de la logique élémentaire. C’est Boole qui a introduit l’interprétation du langage des expressions dans le langage de la théorie des ensembles. L’expression « A ou B est vraie » correspond à la somme des deux ensembles de points. L’expression « A et B » correspond à la partie commune des deux ensembles. La négation correspond au complément d’un ensemble. En partant de ces trois opérations on peut, en poursuivant les combinaisons, obtenir une grande partie de la logique ordinaire. Une machine électronique opère alors dans deux domaines différents : dans la logique élémentaire et dans les opérations d’arithmétique, c’est-à-dire dans le domaine des ensembles et dans le domaine des nombres. Pour « coder » la machine il faut avoir un plan préalable du processus qu’elle suivra. Dans ce plan il y a des instructions qui semblent lui donner de la flexibilité. Ainsi l’instruction peut être de lui faire prendre l’un ou l’autre de deux chemins, suivant que le nombre est plus grand ou plus petit que zéro. De plus, la machine a une « mémoire ». C’est simplement un lieu collecteur où l’on peut placer ou extraire des nombres, c’est-à-dire soit les écrire, soit les lire. Rien d’autre. La propriété si importante de la mémoire du cerveau humain : faire les associations, en est totalement absente. Par un plan donné d’avance la machine va chercher dans la mémoire les places où les instructions sont inscrites. Ces instructions lui ordonnent d’aller à tel ou tel endroit où elle trouvera peut-être d’autres instructions, telles que multiplier des nombres qui s’y trouvent, et remettre le résultat dans un autre endroit spécifié, etc... Ce genre de travail représente tout ce que la machine est capable de faire. Et je me propose de vous montrer avec quelques exemples élémentaires comment avec cela on peut procéder à des calculs qui étaient complètement impraticables jusqu’à présent. Quelle en est la raison ? La raison principale est que la machine opère extrêmement vite. Par exemple on peut extraire un nombre de la mémoire en un millionième de seconde. On peut additionner ou multiplier deux nombres de dix ou douze chiffres chacun dans un temps tout aussi court. C’est donc cette rapidité qui permet de faire dans un temps raisonnable, par exemple une heure ou une journée, des millions et des milliards d’opérations. Pourquoi est-il nécessaire de faire tant de calculs ? J’espère vous montrer que dans beaucoup de problèmes de la science moderne cette quantité de calculs est devenue nécessaire.

Je vais vous montrer comment des questions fort simples peuvent aboutir souvent à des complications énormes. C’est une vieille histoire. Vous avez entendu parler de la théorie des nombres. C’est une des plus anciennes et des plus fondamentales des théories mathématiques. Il s’agit des nombres entiers, 1, 2, 3... Certains de ces nombres s’appellent des nombres premiers. Ce sont des nombres, comme par exemple 13, qu’on ne peut pas représenter comme le produit de deux nombres différents (comme on peut le faire pour un nombre comme 12). Si on écrit les nombres successifs, on peut éliminer ceux qui sont divisibles par 2, puis ceux qui le sont par 3, et ainsi de suite, jusqu’à ce qu’il ne reste que les nombres qui ne sont divisibles par aucun nombre plus petit qu’eux (sauf 1 qui ne compte pas) ; ce sont les nombres premiers. Déjà les anciens Grecs savaient que les nombres premiers sont en nombre infini. Une démonstration de ce fait a plus de 2000 ans. La notion de ce qu’est un nombre premier est donc très simple et facile à expliquer à un enfant de sept ou huit ans. Néanmoins il y a des problèmes qui se posent immédiatement à leur sujet, par eux-mêmes pour ainsi dire, et ces problèmes sont non seulement difficiles, mais beaucoup d’entre eux ne sont pas résolus de ce jour. Par exemple, une hypothèse émise il y a longtemps par un mathématicien, Goldbach, exprime que tout nombre pair peut être représenté par la somme de deux nombres premiers. Ainsi le nombre 20 est la somme de 17 + 3, 17 et 3 étant des nombres premiers. Le nombre 100 est égal à 97 + 3, etc. Avec une machine on a vérifié cette hypothèse pour tous les nombres jusqu’au milliard, mais ce qui est peut-être très étonnant, c’est que personne au monde n’a pu encore le démontrer en toute généralité, c’est-à-dire pour tous les nombres pairs. Dans un tel problème, le rôle de la machine a été très modeste jusqu’à présent. On peut vérifier les hypothèses avec des milliards de cas particuliers, mais avec les machines présentes on ne peut pas faire de démonstration générale. Si par chance une exception ou un contre-exemple était fournis par une machine, cela mettrait fin aux essais de preuve ! Ce sont des statistiques et des expériences pratiques qui souvent sont utiles à guider l’intuition pour obtenir des démonstrations générales et même pour deviner des règles et des théorèmes nouveaux. N’oublions pas qu’il existe une troisième possibilité, et je reparlerai de cela plus tard : un théorème peut être, dans un système d’axiomes de mathématiques, vrai ou faux. Il peut être aussi indécidable. Depuis quelque trente ans, grâce aux travaux de Gödel, cette troisième possibilité est établie. C’est une découverte qui peut-être n’est pas très connue du grand public, mais qui a une importance philosophique énorme, et a déjà eu une très grande influence sur ce qu’il faut penser des limites de la machine.

Mais voici un autre problème très simple et non résolu. Il concerne les nombres premiers proches les uns des autres, et dont la différence est 2, comme 11 et 13, 17 et 19. Le problème est de savoir s’il existe un nombre infini de tels nombres jumeaux. C’est encore inconnu.

Dans un domaine différent, dans le domaine de la géométrie, je vais maintenant parler de constructions très simples et qui posent des questions difficiles quand on les poursuit. Ces constructions ont des connotations de processus biologiques très simplifiés et schématisés. Elles concernent l’allure et le comportement de certaines règles de la croissance de figures géométriques. Imaginons un plan euclidien quadrillé comme du papier d’écolier. Le jeu est le suivant : Commençons dans la première génération avec un seul carré au milieu du papier. Dans la deuxième génération, ce carré donnera naissance à de nouveaux carrés qui ont un côté commun avec le carré original. Noircissons ces carrés. Dans les générations suivantes on prendra les carrés qui ont un côté commun avec ceux de la génération précédente, mais si un de ces carrés a deux « parents » différents, on le laisse de côté (il n’est pas noirci). On voit croître de cette manière une figure géométrique dans le plan. On peut modifier de plusieurs façons ces règles de « naissance » dans la+ 1me génération. Par exemple on peut exclure tous les « enfants prospectifs » s’ils touchent un autre « enfant prospectif » de la même génération, etc. Un tel processus est défini de génération en génération par une règle très simple à définir et à expliquer, mais les propriétés des figures qui en sont le résultat sont souvent extrêmement difficiles à deviner. En tout cas on obtient des dessins amusants.

La raison pour laquelle je vous cite ces problèmes, peut-être très artificiels, est la suivante : c’est une idée un peu philosophique. Un être ou organisme qui nous paraît très compliqué du point de vue de sa composition cellulaire, une bactérie, un animal, ou l’homme lui-même, peut peut-être se résoudre par l’application d’un nombre modéré de constructions successives définies par ce qu’on appelle récursion en mathématiques.

Une récursion simple définissant une suite de nombres entiers est une règle qui détermine le nme terme en fonction du terme précédent (ou plus généralement en fonction des deux termes précédents, etc.). Notre définition de la croissance de figures peut être mise sous une forme de récursion une fois qu’on commence avec une figure donnée. Dans notre cas, le plus simple, nous avons commencé avec un seul carré ou un seul triangle.

Quelquefois, une définition, même de choses aussi simples qu’une suite de nombres entiers, peut mener à des problèmes assez difficiles. Par exemple, commençons avec deux nombres, 1, 2. Le nombre suivant sera écrit s’il est la somme de deux termes précédents différents, mais seulement s’il l’est d’une façon unique. On obtient ainsi 3, 4 (3 + 1) ; 5 est omis car il est représentable de deux manières différentes, 4 + 1, et 2 + 3 ; 6 sera écrit, 7 omis, et ainsi de suite. On peut facilement suivre la progression. C’est un jeu assez arbitraire, mais cela conduit tout de suite à quelques problèmes difficiles, comme de savoir si dans cette suite il y a un nombre infini de nombres premiers. Je ne connais pas la réponse à cette question. Dans un tel problème, comme dans le problème des figures croissantes, la machine permet d’obtenir un très grand nombre d’exemples (en un temps très court). Le mathématicien peut en examiner les résultats, et obtenir quelque idée du comportement du processus en question.

Dans les sciences naturelles, en physique, en astronomie, on trouve des exemples innombrables de ce genre de situation. Newton, avec ses lois, a pu calculer le mouvement d’une planète autour d’un astre, ou de deux astres qui s’attirent. La loi de l’attraction et les lois du mouvement sont très simples à formuler. Mais dans le cas de trois corps de masses à peu près égales qui s’attirent mutuellement, nous pouvons calculer leur trajectoire seulement pour un temps assez court. Ce calcul se fait en avançant le temps par très petits intervalles qui deviennent très nombreux. Il n’y a pas de solution générale d’une forme analytique close pour qu’on puisse prévoir le mouvement dans un futur arbitrairement éloigné. C’est ici qu’une machine calculatrice rend des services de très grande importance, car on peut lui faire faire les calculs pour un temps beaucoup plus long qu’il n’est humainement possible de le faire avec crayon, table de logarithmes, etc.

Ainsi, pour prendre un autre exemple, le mouvement d’un satellite artificiel qui est soumis à de nombreuses perturbations en plus de l’attraction de la terre, comme l’attraction de la lune et du soleil, les effets de la non-sphéricité de la terre, de la résistance de l’air résiduel, etc., peut être calculé d’une manière satisfaisante seulement avec l’aide des machines.

Dans les nombreux problèmes de physique concernant le comporteraient des électrons qui entourent le noyau, dans les problèmes de la mécanique statistique, dans l’hydrodynamique, la machine est indispensable. Les principes de la théorie sont très bien connus, mais pour en tirer les conséquences dans les cas où il y a plus de deux variables qui entrent en jeu, le labeur des calculs devient long et compliqué à l’excès, et ne peut se faire à la main pour ainsi dire.

En météorologie, les principes d’hydrodynamique et de thermodynamique qui déterminent les mouvements de l’air sont bien connus. Mais comme vous le savez les prévisions du temps sont souvent erronées. A quoi cela tient-il ? Il faut connaître un nombre énorme de données de température, de vitesse de l’air, de pression, sur un énorme réseau et sur une multitude de points. Pour suivre les changements de ces quantités, il faut des milliards de pas individuels de calcul. Encore une fois la machine est nécessaire. Et même les machines les plus rapides qui existent à présent ne sont pas tout à fait suffisantes pour cette tâche : leur mémoire n’est pas assez grande. Mais il est certain que dans un futur proche elles le seront, du moins je le crois. Lorsque ces prévisions seront mises au point et possibles pour des durées assez importantes, disons une semaine ou un mois, je pense que quelques années après on pourra découvrir les moyens d’influencer les mouvements atmosphériques et ainsi contrôler les climats. Ces possibilités ont beaucoup d’attraction, mais elles contiennent des dangers évidents.

Dans une autre classe d’exemples, la biologie a fait des progrès énormes ces dernières années. En fait il me semble que les derniers progrès fondamentaux en biologie ont été beaucoup plus importants qu’en n’importe quelle autre science, comme la physique ou les mathématiques. On commence à résoudre le problème de la structure des molécules qui forment la base de la matière vivante. Je mentionnerai la structure spatiale de l’ensemble des atomes qui forment la molécule de myoglobine. Elle a été résolue récemment en Angleterre par Kendrew. Pour l’obtenir, il a fallu démêler un très grand nombre de taches produites par la diffraction de rayons X qui tombaient sur la molécule. Ces taches déterminaient la position spatiale des atomes. Ce travail ne fut possible que par des calculs laborieux sur la machine électronique.

Le professeur Monod a travaillé sur le plan de développement de l’organisme, défini, en principe, par un nombre fini de règles. Ce seront les machines qui donneront le moyen de poursuivre la nature exacte de tels développements. Le grand problème de savoir comment le code est contenu dans les gènes en forme de chaîne de ADN sera étudié en partie à l’aide de ces machines. Tout ceci est un domaine de la biologie très important et très difficile.

Les problèmes qui suivront sont d’une importance égale. Ce sont les problèmes de la spécificité et de la spécialisation des cellules. Ces problèmes sont en partie des problèmes mathématiques et les machines électroniques aideront à trouver la solution.

Le cerveau animal, et même le cerveau humain, est lui-même une machine, ou plutôt il est en outre une machine. En étudiant les relais et les connections dans la machine électronique moderne on obtient des expériences et des suggestions qui peuvent être utiles à comprendre les opérations du cerveau humain lui-même. On sait que le cerveau humain contient 10 milliards de cellules appelées neurones, qui jouent le rôle de lampes électroniques. De chacun de ces neurones partent des fils qui les relient les uns aux autres. Plusieurs centaines de telles connections partent de chaque neurone. L’étude de ces réseaux se fait en anatomie et en physiologie et les analogies obtenues avec les études des réseaux des machines électroniques donnent des modèles et des suggestions sur le fonctionnement de telles constructions. Il est certain qu’il est inexact de dire que le cerveau opère comme une machine digitale. Il y a sans aucun doute d’autres modes d’opération dans le cerveau humain qui ne sont pas digitaux mais opèrent plutôt comme les machines analogiques, mais par l’intermédiaire de substances chimiques ou hormonales. Pour autant que je sache, personne ne connaît la vraie nature de la mémoire dans le cerveau animal ou humain. Il y a sans doute une mémoire dans tout cerveau animal, mais il a un caractère différent de la mémoire dans les machines électroniques. Ceci dit, les études de l’organisation des machines électroniques ont contribué déjà beaucoup et stimulé de nouvelles idées dans l’étude des automates en général. Jusqu’à présent, c’est à peine un début, mais il est très possible qu’on aboutisse graduellement à la compréhension du processus du cerveau humain. Car, comme M. Monod l’a très bien montré, ce n’est pas la matière, le mécanisme, la « quincaillerie » de l’objet qui font le cerveau, mais la collection des processus. Certains croient que le mécanisme de la mémoire réside dans les courants, dans les mouvements périodiques dans le cerveau. C’est l’ensemble de ces mouvements, avec toute leur histoire passée, qui constitue ce qu’on appelle plus justement la pensée. Il y a beaucoup d’indications dans ce sens.

Maintenant je voudrais exprimer mon opinion sur la peur relative au rôle futur des machines : la crainte qu’elles parviennent à supplanter l’homme est non seulement exagérée, mais c’est le problème même qui est mal posé. Au contraire, il y a un danger complémentaire pour ainsi dire. Il faut se demander ce qu’on comprend par le terme homme, dans cette conférence. Un individu ne représente qu’une partie infinitésimale de la race humaine. Or, particulièrement depuis deux ou trois décades de notre siècle, la spécialisation de la connaissance humaine s’accroît tellement qu’il n’est plus possible pour un seul homme de connaître, non seulement toutes les sciences, mais même toutes les parties d’une science, comme les mathématiques par exemple. Il devient de plus en plus difficile de comprendre même l’essence des domaines voisins de ceux dans lesquels on est soi-même spécialisé. Il est possible de lire les ouvrages de vulgarisation, mais même pour une personne avec une très bonne mémoire, d’ici quelque temps il ne sera probablement plus possible de se rendre compte même des développements les plus importants dans les sciences autres que la sienne propre. Dans quelques décades, il ne sera peut-être plus possible pour un individu de connaître même les grandes lignes de l’histoire, des arts et des sciences et ce sera seulement la race humaine dans son ensemble qui possédera toute cette connaissance, sans qu’un seul individu puisse se rendre compte de la totalité.

Maintenant il est possible que des machines comme les machines électroniques présentes pourront peut-être aider l’homme à cet égard, loin de le mettre en esclavage. Une mémoire beaucoup plus vaste sera-t-elle accessible aux individus et les aidera-t-elle dans leurs communications les uns avec les autres ? Nul ne peut le prévoir. Personnellement je crois que c’est ce qui se passera en effet.

Pour en revenir à la découverte de Gödel dont j’ai parlé au début, les découvertes récentes dans la logique mathématique suggèrent qu’aucune théorie n’est jamais complète. Ces théorèmes purement mathématiques ont une portée philosophique très grande. Ils expriment d’une certaine façon le fait que l’ensemble de la connaissance et en particulier la connaissance de soi-même ne peut jamais être complète. En général, ces théorèmes expriment des propriétés des systèmes dans lesquels on opère et ils le font dans le système même. Pour en venir à une conclusion plus générale, peut-être, l’homme ne se connaîtra jamais complètement, il ne fera jamais une machine comme lui-même ou supérieure à lui-même. C’est peut-être la raison qui permet d’écarter la crainte d’être supplanté ou même supprimé par la machine.

D’autre part, il faut toujours se rappeler que les grands problèmes sociaux d’organisation de la race humaine donnent lieu à de nouvelles études mathématiques qui emploieront des modèles étudiables sur les machines.

Le professeur Weisskopf a mentionné la machine programmée pour jouer aux échecs. Je me rappelle aussi l’histoire clôturant la conférence de M. Monod, qui vous a parlé du petit chat qui possédait non seulement de l’intelligence, mais aussi des sentiments prononcés. En terminant, je voudrais, moi aussi, vous raconter une histoire sur la machine jouant aux échecs. A ce propos, c’est exact qu’une machine peut être codée pour jouer aux échecs suivant toutes les règles du jeu, et on a même obtenu des résultats modestes, tels qu’une machine gagnant contre un joueur novice. Pour le présent, un joueur moyen peut la battre aisément. Il se peut que dans disons vingt ans, on trouve des codes meilleurs, mais je ne crois pas, dans le proche futur, qu’elle réussisse à battre un maître !

Or, il y a quelques années nous avons fait jouer la machine contre un jeune mathématicien. Après quelque vingt coups, la machine était dans la situation où elle devait soit perdre sa reine, soit subir le mat. Nous observions pendant toute cette partie le comportement de la machine. Elle prenait en moyenne cinq à six minutes à décider de ses coups. Devant ce problème, la machine a pris nettement plus de temps et les spectateurs avaient vraiment l’impression d’un travail acharné. Finalement elle décida de sacrifier la reine, puisque le mat était codé comme une éventualité encore plus désagréable. Cela nous avait donné presque un sentiment de pitié. Et c’est avec cette anecdote que je terminerai ma conférence. 

* 

La conférence de Stanislaw ULAM a été suivie d’un entretien public ‘Le robot poète’, présidée par M. André Chavanne.

Conférence et entretien sont disponibles aux pages 31-42 et 189-211 du recueil des Rencontres internationales de Genève 1965, Editions de La Baconnière, Neuchâtel, 1965.


Retour au texte de l'auteur: Jean-Marc Fontan, sociologue, UQAM Dernière mise à jour de cette page le mardi 19 février 2008 16:03
Par Jean-Marie Tremblay, sociologue
professeur de sociologie au Cégep de Chicoutimi.
 



Saguenay - Lac-Saint-Jean, Québec
La vie des Classiques des sciences sociales
dans Facebook.
Membre Crossref