Cédric Jeanneret a écrit :Aldaran a écrit :Personnellement, ce qui me sort de l'histoire, c'est que des « IA » ressentent des émotions, que certains programmes basiques ressentent le chaud, le froid, la jalousie... qui ne font a priori pas partie de leur programmation (à moins qu'un non dit m'échappe, ce qui est fort possible).
Ma suspension d'incrédulité, pour le coup, est incrédule.
Je dirais que tu as deux manières de voir la chose (qui ne sont pas mutuellement incompatible) :
1) à partir du moment où des IA développent une conscience elles deviennent, logiquement, sensibles à la même gamme d'émotions que les êtres humains.
2) en ce qui concerne le fait de ressentir le chaud, le froid, etc., il s'agit de la traduction la plus proche possible en langage compréhensible pour des substrats biologiques de ce que peuvent ressentir réellement des programmes.
La scène à laquelle je faisais référence est lisible entre la page 48 et la fin du premier chapitre.
Qu'une des deux ogives au moins soit capable de ressentir tout cela et soit dotée d'un tel niveau de conscience (alors qu'elles ne sont construites que dans un but basique et bien précis qui n'exige logiquement pas une telle programmation) m'a éjecté de la lecture. Seulement pour un temps, je reprendrai plus tard.
Du coup, me vient une autre réaction : faut que l'IA programmatrice soit salement vicelarde pour doter ses kamikazes d'autant de sensations.. Mais, sauf erreur de ma part, ça n'enfreint aucune des lois du Carcan, donc pourquoi pas...