GTK a écrit:
Enfin pour moi, le véritable animisme, comme tu dis, c'est de penser que chaque chose dans la nature, ou même les objets créés par l'homme, possèdent ou peuvent posséder une âme.
J'utilisais « animisme » dans le sens « croire en l'existence de l'âme » tout court, sans nécessairement en attribuer aux objets. Il me semble avoir déjà vu le terme utilisé dans les deux sens, mais je me trompe peut-être.
Si quelqu'un a un autre terme pour désigner la croyance en l'âme de façon tout à fait générale, je suis preneur.
GTK a écrit:
Je pense juste qu'une intelligence artificielle du style aux Terminator, à Glados ou même à l'Homme Bicentenaire ne peut pas apparaitre soudainement d'un coup, comme ça, sans que personne ne l'ait voulu. Si un système est suffisamment complexe pour permettre à une machine de prendre conscience d'elle-même, etc... ça ne va pas apparaitre comme par magie ou suite à un bug, ça ne peut venir que du désir de son créateur, je pense (et ne me sors pas que "croire que la conscience de soi et l'intelligence ne peuvent venir que de la volonté du créateur, n'est-ce pas le créationisme absolu ?"
).
Je suis d'accord que cela ne risque pas d'apparaître « par magie » ou « à cause d'un bug » (comme le veulent beaucoup de films, où une machine qui devient consciente après avoir été touchée par la foudre par exemple
), et je ne prétends pas qu'on est prêt de voir une de nos machine devenir spontanément « consciente », mais tu as toi-même répondu à ton propre argument : l'espèce humaine est la preuve que « l'intelligence » et la « conscience » peuvent apparaître dans un système suffisamment complexe, sans qu'elle ait été créée par quiconque. Peut-on vraiment affirmer catégoriquement qu'une telle chose ne pourrait pas se reproduire dans un système dont l'origine serait « artificielle » ?
Faut-il nécessairement qu'il y ait évolution/pression sélective pour que l'intelligence apparaisse ou pourrait-elle être être une propriété émergente inattendue d'un système suffisamment complexe ? Comment définir « l'intelligence » et « la conscience » ? Ces questions n'ont pas de réponses connues à l'heure actuelle, mais je pense qu'elle valent la peine qu'on se les pose.
Citer:
Aussi, je ne suppose pas que l'homme possède cette chose inimitable par les machines malgré un degré de complexité infini, je suppose surtout que l'homme sera certes certainement capable un jour de parfaitement recréer une copie artificiel de lui même, au niveau de la ressemblance physique et du fonctionnement de l'organisme (au moins quelque chose d'équivalent), mais en ce qui concerne la pensée, la mémoire, l'utilisation des sens, ect... on n'arrivera jamais à atteindre un degré d'élaboration suffisant pour que la machine puisse réellement avoir conscience.
Je pense que c'est un point de vue qui se défend, oui, si je comprends bien ce que tu veux dire (« on n'y arrivera jamais parce que notre technologie n'atteindra jamais le niveau suffisant », ce qui est très différent de « même en admettant qu'on y arrive, ce cerveau ne serait pas
vraiment conscient »).
Personnellement, des projets du style
Blue Brain me rendent plutôt optimiste.
Citer:
Et j'avais bien compris que l'article de Yahoo est dans le faux après avoir lu ton message, je disais pas ça pour dire que le CSER c'est inutile, j'ai posté en pensant aux gens qui pestent contre leurs machines parce qu'elles ne veulent jamais marché comme il faut quand il faut, "comme si elles le faisaient exprès", ce qui à mon avis présente quelques points commun avec les personnes qui ont peur des technologies n'ont pas à cause de ce qu'elles permettent, mais à cause de ce qu'elles pourraient faire si elles le voulait (façon "si on continue à utiliser des robots partout et pour tout, un jour c'est les robots qui nous utiliseront !").
Je suis tout à fait d'accord avec toi sur ce point, et la plupart des scénarios du style « le robot se retourne contre son créateur » me font grincer des dents, surtout qu'ils impliquent généralement une mécompréhension profonde de la façon dont les machines actuelles fonctionnent.
Croire que les machines actuelles sont susceptibles de devenir conscientes et de se retourner contre nous est ridicule, je pense que l'on sera tous d'accord sur ce point, mais cela n'empêche pas :
- de réaliser qu'il n'y a aucune raison de penser (à moins de croire à l'existence de l'âme) qu'une machine suffisamment avancée ne pourra jamais être « intelligente » ou « consciente » au même titre que l'homme, même si on est effectivement encore loin de pouvoir en créer (si tant est que l'on y arrive un jour)
- que l'on puisse légitimement s'inquiéter de certaines utilisations que nos sociétés font des machines et des dangers que cela peut poser (un drone militaire qui bugge, par exemple - ce qui est déjà arrivé)
_________________
Sage à ses heures, idiot le reste du temps.
Horaire inconnu.