Le Uncanny Valley (vallée troublante), c'est:
Le premier exemple qui a fait la une récemment est le Tesla 'Autopilot' - un 'pas tout-à-fait' pilote automatique, où la voiture conduit, mais sous la surveillance de l'humain, juste au cas où. Le problème c'est que les humains sont nuls pour faire attention à quelque chose qui, la plupart du temps, n'arrivera pas. Ainsi, la période entre le moment où les voitures commencent à être "intelligentes" et le moment où elles seront véritablement autonomes est une "Vallée des transferts " où toutes sortes de choses peuvent mal tourner.
Un autre exemple est la "politique" autour de la médecine fondée sur les faits. Pour ceux d'entre vous qui ne le savent pas, l'EBM consiste à créer des directives médicales basées sur l'analyse statistique d'études multiples, plutôt que de s'appuyer sur une combinaison de formation, d'expérience et d'intuition. C'est formidable, en un sens, parce que cela signifie que tous les patients recevront (en principe) le traitement qui est le plus susceptible de leur donner le meilleur résultat. De plus, pour beaucoup de choses, il pourrait facilement être automatisé. Mais le problème, c'est de savoir qui, étant sain d'esprit, va vouloir passer 7 ans de sa vie à faire des études médicales, pour devenir un gratte-papier du checklist ? Tout ce bourrage de cerveau pour l'occasionnel moment où "l'ordinateur ne sait pas quoi faire" et l'on peut déployer tout son potentiel ? Sachant que ce que vous décidez sera introduit dans la machine et deviendra éventuellement un autre rouage dans l'algorithme de prise de décision ?
Il devrait y avoir une conclusion incisive ici, mais je ne sais pas trop quoi dire. La société semble dépendre de plus en plus de technologies si avancées que seules quelques personnes dans le monde les comprennent vraiment (la conception de micropuces, par exemple). C'est un peu effrayant.
un sentiment troublant que les gens éprouvent couramment lorsque les androïdes (robots humanoïdes) et les simulations audio/visuelles ressemblent de près aux humains à bien des égards, mais ne sont pas tout à fait réalistes de façon convaincante.Je réfléchis ces temps à quelque chose qui ressemble à cette idée, mais qui est légèrement différent. J'imagine qu'il y a déjà un terme pour ça, mais je ne sais pas ce que c'est. La vallée du transfert de responsabilité à l'automation ?
Le premier exemple qui a fait la une récemment est le Tesla 'Autopilot' - un 'pas tout-à-fait' pilote automatique, où la voiture conduit, mais sous la surveillance de l'humain, juste au cas où. Le problème c'est que les humains sont nuls pour faire attention à quelque chose qui, la plupart du temps, n'arrivera pas. Ainsi, la période entre le moment où les voitures commencent à être "intelligentes" et le moment où elles seront véritablement autonomes est une "Vallée des transferts " où toutes sortes de choses peuvent mal tourner.
Un autre exemple est la "politique" autour de la médecine fondée sur les faits. Pour ceux d'entre vous qui ne le savent pas, l'EBM consiste à créer des directives médicales basées sur l'analyse statistique d'études multiples, plutôt que de s'appuyer sur une combinaison de formation, d'expérience et d'intuition. C'est formidable, en un sens, parce que cela signifie que tous les patients recevront (en principe) le traitement qui est le plus susceptible de leur donner le meilleur résultat. De plus, pour beaucoup de choses, il pourrait facilement être automatisé. Mais le problème, c'est de savoir qui, étant sain d'esprit, va vouloir passer 7 ans de sa vie à faire des études médicales, pour devenir un gratte-papier du checklist ? Tout ce bourrage de cerveau pour l'occasionnel moment où "l'ordinateur ne sait pas quoi faire" et l'on peut déployer tout son potentiel ? Sachant que ce que vous décidez sera introduit dans la machine et deviendra éventuellement un autre rouage dans l'algorithme de prise de décision ?
Il devrait y avoir une conclusion incisive ici, mais je ne sais pas trop quoi dire. La société semble dépendre de plus en plus de technologies si avancées que seules quelques personnes dans le monde les comprennent vraiment (la conception de micropuces, par exemple). C'est un peu effrayant.
The Uncanny Valley is:
The first example which has been in the news recently is the Tesla 'Autopilot' - a 'not-quite' self-driving car, where the car is doing the driving, but the human has to pay attention, just in case. The thing is, humans are useless at paying attention to something that will most often not happen. So the period between when cars start being 'intelligent', and are finally totally autonomous is a "Hand-off Valley" where all kinds of things can go wrong.
Another example is the 'politics' around evidence-based medicine. For those of you who don't know, EBM is about creating medical guidelines based on statistical analysis of multiple studies, rather than relying on a combination of training, experience and intuition. This is great, in one sense, because it means that all patients will (nominally) get the treatment which is most likely to give the best outcome for them. For quite a lot of things it could quite easily be automated. But the problem with this is who in their right mind is ever going to want to spend 7 years of their life slaving away at medical studies to become a flow-chart-wallah? All that brain stuffing for the occasional "the computer doesn't know what to do" moment where you can deploy your full potential? Knowing that whatever you decide will get fed into the machine and eventually become another cog in the decision making algorithm?
There should be a conclusion and a flourish here, but not sure what to say. Society seems to be increasingly reliant on technologies that are so advanced that only a few people in the world really understand them (microchip design, for example). That's a bit scary.
"a common unsettling feeling people experience when androids (humanoid robots) and audio/visual simulations closely resemble humans in many respects but are not quite convincingly realistic."I've been thinking about something else recently which kind of resembles this idea, but is slightly different. I expect there's already a term for it, but I don't know what it is. The Automation Hand-off Valley?
The first example which has been in the news recently is the Tesla 'Autopilot' - a 'not-quite' self-driving car, where the car is doing the driving, but the human has to pay attention, just in case. The thing is, humans are useless at paying attention to something that will most often not happen. So the period between when cars start being 'intelligent', and are finally totally autonomous is a "Hand-off Valley" where all kinds of things can go wrong.
Another example is the 'politics' around evidence-based medicine. For those of you who don't know, EBM is about creating medical guidelines based on statistical analysis of multiple studies, rather than relying on a combination of training, experience and intuition. This is great, in one sense, because it means that all patients will (nominally) get the treatment which is most likely to give the best outcome for them. For quite a lot of things it could quite easily be automated. But the problem with this is who in their right mind is ever going to want to spend 7 years of their life slaving away at medical studies to become a flow-chart-wallah? All that brain stuffing for the occasional "the computer doesn't know what to do" moment where you can deploy your full potential? Knowing that whatever you decide will get fed into the machine and eventually become another cog in the decision making algorithm?
There should be a conclusion and a flourish here, but not sure what to say. Society seems to be increasingly reliant on technologies that are so advanced that only a few people in the world really understand them (microchip design, for example). That's a bit scary.
No comments yet :
Post a Comment