Herr Magog a écrit:
Mais après tout, une machine reste une machine, non ? Est-ce qu'une machine peut penser par elle-même sans que l'on puisse la programmer ?
Nous sommes encore loin de la création de machines "conscientes" ou capables d'apprendre significativement et de s'auto-améliorer, mais cela ne veut pas dire que cela soit infaisable.
Ne sommes-nous pas nous-mêmes des machines biologiques ? Je ne vois pas de raison de douter que des créations artificielles, surtout si elles imitent le fonctionnement du cerveau humain comme
le projet Blue Brain, puissent un jour accomplir les mêmes choses que notre cerveau - et même plus.
L'article fait allusion à l'idée de « singularité technologique » imaginée par Irving Good, l'idée étant que les progrès techniques se font de plus en plus rapidement et s'achèveront par la création d'une machine suffisamment intelligente pour se rendre elle-même plus intelligente, ce qui mènera à une "explosion d'intelligence"
(notez qu'il voyait ça comme quelque chose de plutôt positif et pas dans une optique "les machines vont être plus malines que nous et vont tous nous massacrer" appréciée par les médias et les mauvais auteurs de SF ).
Je peux personnellement comprendre que des gens soient préoccupés, à l'heure où on crée des machines "intelligentes" conçues pour la guerre ou des machines capables de s'auto-alimenter. Je ne crains pas que les machines actuelles décident de se "retourner contre nous" (:roll:), mais je trouve malgré tout dangereux de créer des robots dont la fonction est de tuer des êtres humains et de leur donner trop d'autonomie. Il finira par y avoir des accidents.
_________________
Sage à ses heures, idiot le reste du temps.
Horaire inconnu.