Nous sommes actuellement le 19 Avril 2024, 21:13

Le fuseau horaire est réglé sur UTC+1 heure




Publier un nouveau sujet Répondre au sujet  [ 13 messages ]  Atteindre la page 1, 2  Suivant
Auteur Message
MessagePublié: 30 Novembre 2012, 13:18 
Mars attacks
Mars attacks
Avatar de l’utilisateur
Hors-ligne

Inscription: 02 Février 2009, 20:34
Messages: 1535
Citer:
Un centre pour surveiller les robots et prévenir leur révolte

Le CSER est un centre dont la mission est d’observer l’évolution des technologies et surtout de lorgner si ces dernières ne pourraient pas un jour distancer l’homme en devenant plus intelligentes. Il doit normalement ouvrir en 2013.
"Quelque chose de totalement nouveau est apparu durant ces cinq dernières années : la technologie remplace la religion." [1] Cette phrase d'Eric Horvitz, huile de chez Microsoft, a été prononcée lors d'une rencontre entre plusieurs scientifiques à propos des possibles dérives de la robotique. C'était à Asilomar, en Californie, en 2009. Elle trouve un écho aujourd'hui en Angleterre où des universitaires et un ingénieur [2] veulent créer le Center for the Study of Existential Risk (centre d'étude du risque existentiel) au sein de l'université de Cambridge.
LE CSER doit normalement ouvrir ses portes dans le courant de l'année 2013. Son but, servir d'observatoire pour anticiper et éviter à l'humanité des scénarios futuristes cauchemardesques. A les entendre, la réalité pourrait rejoindre la fiction avec comme modèle des blockbuster tels que Terminator, I Robot et Matrix. Ils redoutent de voir l'homme être dépassé par des machines devenues plus intelligentes. On peut d'ailleurs lire sur le site du CSER que "beaucoup de scientifiques sont préoccupés par le fait que les développements dans les technologies humaines pourraient bientôt poser de nouveaux risques allant jusqu'à l'extinction de notre espèce en tant que telle."
Au menu des réjouissances, on retrouve le péril de la révolte des robots, la fameuse "Robopocalypse". La révolution de l'Intelligence Artificielle et des Nanotechnologies sont aussi dans le collimateur. Le concept de la Singularité technologique défendu par le futurologue Ray Kurzweil est également sérieusement envisagé par le CSER qui pense qu'elle se produirait d'après "certains indices vers le milieu (...)


Source: Yahoo Insolite
http://fr.news.yahoo.com/centre-surveil ... w--;_ylv=3

J'ai quand même du mal à croire à tout ça..

_________________
ne jamais renoncer


Haut
 Profil  
Répondre en citant  
MessagePublié: 30 Novembre 2012, 13:33 
Rédacteur
Rédacteur
Avatar de l’utilisateur
Hors-ligne

Inscription: 04 Février 2011, 18:42
Messages: 378
Pourquoi je ne suis pas étonner pas l’apparition de se genre de groupes?

_________________
L'humain me fascine, il est à la fois le pire des démons et le meilleur des anges.


Haut
 Profil  
Répondre en citant  
MessagePublié: 30 Novembre 2012, 14:02 
Membre
Membre
Avatar de l’utilisateur
Hors-ligne

Inscription: 29 Novembre 2012, 14:24
Messages: 106
Dès qu'il y a du progrès les rétrogrades se pointent...

Il ne faut pas oublier les trois lois de la robotique !

_________________
42


Haut
 Profil  
Répondre en citant  
MessagePublié: 30 Novembre 2012, 14:25 
Grand matou
Grand matou
Avatar de l’utilisateur
Hors-ligne

Inscription: 29 Juillet 2008, 20:26
Messages: 6447
Je ne vois pas ce qui vous dérange dans l'existence d'un centre de surveillance des dérives possibles des technologies (même si quand on le présente comme le fait Yahoo comme "un centre pour surveiller les robots", ça paraît effectivement un peu débile).

Citer:
Il ne faut pas oublier les trois lois de la robotique !

J'aime beaucoup Asimov aussi, mais ces lois ne sont pas vraiment triviales à implémenter en réalité (sans compter qu'Asimov montre assez clairement les limites de ces lois !).

_________________
:binocle: Sage à ses heures, idiot le reste du temps.
Horaire inconnu.


Haut
 Profil  
Répondre en citant  
MessagePublié: 30 Novembre 2012, 16:49 
Ornithorynque consterné
Ornithorynque consterné
Avatar de l’utilisateur
Hors-ligne

Inscription: 16 Mai 2010, 16:44
Messages: 1255
Localisation: Dans une rivière australienne
Je dirais même qu'on est encore très loin de pouvoir programmer un semblant des trois lois.

Autrement, à l'heure actuelle, l'idée ne me semble pas si incongrue que ça, même si l'article est il est vrai assez sensationnaliste.


Haut
 Profil  
Répondre en citant  
MessagePublié: 30 Novembre 2012, 18:15 
Banni
Banni
Avatar de l’utilisateur
Hors-ligne

Inscription: 18 Juillet 2009, 11:49
Messages: 2349
C'est dans le sujet:
http://www.huffingtonpost.fr/2012/11/30 ... ref=france

_________________
NEMROD34 S.A.R.L de démolition minutieuse de foutaises.
Siret : 123456789
Capital 3 millions de brouzoufs
Certifié sans chat.


Haut
 Profil  
Répondre en citant  
MessagePublié: 01 Décembre 2012, 12:47 
Membre
Membre
Avatar de l’utilisateur
Hors-ligne

Inscription: 21 Octobre 2011, 14:19
Messages: 982
Ma foi, avec le développement des diverses technologies militaires (dont les drones, machines qui peuvent avoir une autonomie plus ou moins large), l'idée d'un dérèglement de certaines de ces machines et une "prise d'indépendance" n'est pas complètement impossible, mais, de là à évoquer Terminator, HAL et tous leurs amis, ça me semble exagéré.

De plus, lire de la part de l'un des responsables de ce centre : "Depuis cinq ans, la technologie a remplacé la religion", ça m'a donné l'impression de lire un début de propagande sectaire (bon, là, je deviens un peu méchant et injuste).

Et puis, c'est bien joli de surveiller les machines automatisées, mais il faudrait aussi surveiller ceux qui les utilisent et, surtout, ceux qui utilisent des équipements, machines, logiciels, etc... pas automatisés, genre le gros bouton rouge qui sert à faire décoller les têtes nucléaires (voilà, c'était la minute "Philosophie de comptoir de 22 heures après 3 ou 4 apéros").


Haut
 Profil  
Répondre en citant  
MessagePublié: 01 Décembre 2012, 13:48 
Grand matou
Grand matou
Avatar de l’utilisateur
Hors-ligne

Inscription: 29 Juillet 2008, 20:26
Messages: 6447
Citer:
Et puis, c'est bien joli de surveiller les machines automatisées, mais il faudrait aussi surveiller ceux qui les utilisent et, surtout, ceux qui utilisent des équipements, machines, logiciels, etc... pas automatisés, genre le gros bouton rouge qui sert à faire décoller les têtes nucléaires (voilà, c'était la minute "Philosophie de comptoir de 22 heures après 3 ou 4 apéros").

Le CSER n'est pas vraiment « un centre de surveillance des machines », contrairement à ce que peut laisser entendre l'article de Yahoo : http://cser.org/

Citer:
Many scientists are concerned that developments in human technology may soon pose new, extinction-level risks to our species as a whole. Such dangers have been suggested from progress in AI, from developments in biotechnology and artificial life, from nanotechnology, and from possible extreme effects of anthropogenic climate change. The seriousness of these risks is difficult to assess, but that in itself seems a cause for concern, given how much is at stake. (For a brief introduction to the issues in the case of AI, with links to further reading, see this recent online article by Huw Price and Jaan Tallinn.)

The Cambridge Project for Existential Risk — a joint initiative between a philosopher, a scientist, and a software entrepreneur — begins with the conviction that these issues require a great deal more scientific investigation than they presently receive. Our aim is to establish within the University of Cambridge a multidisciplinary research centre dedicated to the study and mitigation of risks of this kind. We are convinced that there is nowhere on the planet better suited to house such a centre. Our goal is to steer a small fraction of Cambridge's great intellectual resources, and of the reputation built on its past and present scientific pre-eminence, to the task of ensuring that our own species has a long-term future. (In the process, we hope to make it a little more certain that we humans will be around to celebrate the University's own millennium, now less than two centuries hence.)


Je pense qu'il est difficile de se faire une opinion informée sur un projet de ce style à ce stade, surtout sur base d'un article d'un site comme Yahoo. ;)

_________________
:binocle: Sage à ses heures, idiot le reste du temps.
Horaire inconnu.


Haut
 Profil  
Répondre en citant  
MessagePublié: 07 Décembre 2012, 23:45 
Membre
Membre
Avatar de l’utilisateur
Hors-ligne

Inscription: 22 Octobre 2010, 13:26
Messages: 302
Localisation: Belgique
Penser que les robots peuvent prendre conscience d'eux même et se révolter, et ainsi devenir indépendant de l'homme, etc..., c'est juste de l'animisme primaire...

Après effectivement, surveiller le développement des machines, peu importe leur but initial, c'est peut être un moyen d'éviter de future défiance (accidentelle ou non, causé par l'utilisation ou la négligence de l'homme et non des machines qui restent des outils) du style aux bombes atomiques ou aux nucléaires (c'est pas lié directement à la robotique, mais c'est lié sur le fait que c'est des avancés technologiques sur lesquels on a peut être pas assez réfléchis avant leur emploi au vu de leur application et des progrès que pouvait apporter ces technologies).


Haut
 Profil  
Répondre en citant  
MessagePublié: 08 Décembre 2012, 01:03 
Grand matou
Grand matou
Avatar de l’utilisateur
Hors-ligne

Inscription: 29 Juillet 2008, 20:26
Messages: 6447
Citer:
Penser que les robots peuvent prendre conscience d'eux même et se révolter, et ainsi devenir indépendant de l'homme, etc..., c'est juste de l'animisme primaire...

Je vois ce que tu veux dire, bien sûr (nos machines actuelles sont loin de pouvoir « penser » par elles-mêmes au sens où on l'entend ici), mais je trouve quand même ta remarque amusante : le véritable animisme n'est-il pas de croire, comme tu sembles le faire, que seul l'homme peut être conscient et qu'aucune machine n'en sera jamais capable, quel que soit son degré de complexité ? Cela suppose que l'homme a « quelque chose de plus » qu'aucun objet artificiel ne pourra jamais répliquer.

Citer:
Après effectivement, surveiller le développement des machines, peu importe leur but initial, c'est peut être un moyen d'éviter de future défiance (accidentelle ou non, causé par l'utilisation ou la négligence de l'homme et non des machines qui restent des outils) du style aux bombes atomiques ou aux nucléaires

Il me semble que c'est exactement le but de cette organisation, oui, comme expliqué plus haut. ;)

_________________
:binocle: Sage à ses heures, idiot le reste du temps.
Horaire inconnu.


Haut
 Profil  
Répondre en citant  
Afficher les messages publiés depuis:  Trier par  
Publier un nouveau sujet Répondre au sujet  [ 13 messages ]  Atteindre la page 1, 2  Suivant

Le fuseau horaire est réglé sur UTC+1 heure


Qui est en ligne ?

Utilisateurs parcourant ce forum : Aucun utilisateur inscrit et 5 invités


Vous ne pouvez pas publier de nouveaux sujets dans ce forum
Vous ne pouvez pas répondre aux sujets dans ce forum
Vous ne pouvez pas éditer vos messages dans ce forum
Vous ne pouvez pas supprimer vos messages dans ce forum
Vous ne pouvez pas transférer de pièces jointes dans ce forum

Rechercher:
Atteindre:  
Développé par phpBB® Forum Software © phpBB Group
Traduction française officielle © Maël Soucaze