[Post #00000195 : '']Wed Jan 14 03:09:37 CET 1970
En se qui concerne QF1 0001
Je croie qu’il faut être prudent.
Une des idées qui revient asse souvent chez la part des auteur de roman de SF qui ont une sensibilité scientifique c’est le coté incomparablement plus performant des systèmes robotique dans les domaines qui faisait la fierté des êtres vivant plus ou moins primitifs.
Des vaisseaux spéciaux pilotés par des IA serait certain de remporter la victoire contre des humains a armes égal et même en supériorité numérique.
Ca n’est pas très porteur dans un roman ; aussi certains auteurs de SF ont continué a pondre des héraut qui battent les machines dans les domaines pour lesquels elles ont été crées
L’astuce consiste a maître en scène des personnages intelligent qui contournent le problèmes en misant sur les points qui ne sont pas pris en compte par les machines.
Mais quant les machines deviennent des Intelligences artificiels qui prennent conscience d’elle même….
Ou arrêter les compétence des IA a fin de ne pas surclasser les êtres vivants dans tous les domaines ?
Ma solution consiste à prendre le problème à l’envers :
Qu esse qui rend les humais moins fiable que des machines au point de vue de la réflexion ? (Désolé mais je ne suis pas un spécialiste des extra-terrestres )
Mettons que se soient des préoccupations parasites tel que : haines, jalousies, envie, peurs irrationnelles, fierté, possessivité, partions, joies, plaisir, amour …
Au point de vue efficacité ça n’est pas vraiment indispensable (pour certaines préoccupations je reconnais que c’est discutable mais la n’est pas mon propos)
A/
Si la gestion de ces préoccupations avait une importance dans l’évolution de l’espèce humaine, command fond les IA qui en sont dépourvue ?
1/
Elles n’ont pas la possibilité d’évoluer car leur monde est trop équilibré
Elles sont puissantes mais sans surprise (bonnes tacticiennes mais exécrables stratèges)
2/
Elles n’ont pas de possibilité d’adaptation et ne sont capable que des taches pour lesquels elles sont prévues ; mais la leur coté intelligence cède le pas a leur coté artificiel
C’est se que je défini comme IA inférieur (ou « system expert »)
3/
Elles deviennent folle et c’est le problème que je propose de résoudre par l’ajout des « encrages psychologique » qui permettraient de rendre l’existence supportable a une IA
Sa qui leur donne un ou plusieurs gros point faible.(ex : les robot de « Isaak Asimov »)
B/
Si les IA conscientes manifestent des « faiblesses » humaines »
Pourquoi command ?
1/
Elles parviennent à les contrôler et deviennent des sages parmi les êtres pensants
Leurs autolimitations sont de l’ordre de la bienveillant envers les êtres vivants pathétiques
Qu’elles laissent vivre en tentant de ne pas trop faire d’ingérences a fin de leur laisser la chance d’évoluer par eux même… (Elles sont peut être les copines des Guetteurs

)
2/
Elles restent libres des encrages absolus (comme les lois de la robotique)
Ces encrages absolus sont remplacé par toute une gamme de préoccupations qui ressemble a celles des humains.
Si une IA « désancrée » préfère mentir a un humain pour en préserver un autre moins élevé dans la hiérarchie mais avec des compétences plus appropriées, elles le peut au risque de créer une forme de sentiment de déloyauté voir de culpabilité..
Elles pourrait perdre en tactique ce qu’elles ont gagner en stratégie…
Mais cette souplesse les rend susceptible d’erreurs d’appréciation
Si les certitudes s’envolent pour une IA alors c’est la porte ouverte aux différentes peur et autres angoisses…
Nous pouvons imaginer des IA qui refusent de se sacrifier dans une bataille par peur d’être détruite
Ou à l’inverse une IA (« désancrée » ou « a encrage flou ») qui désobéi aux ordres a fin de protéger un entre vivant ou une autre IA au péril de son existence.
Si une IA estime que son existence n’a plus de sens après la disparition d’un être qui lui importe alors qu’il est envisageable de le sauver ; la fuite n’est plus envisageable car quelque part cela reviendrai a sa propre destruction (son encrage flou est fragile comme la psyché des êtres humains); tan qu’a être détruit autan tenter quelque chose
Nous obtenons des IA qui peuvent mourir ; s’effacer où se réinitialiser en perdant toute son expérience (elle redevient une sorte d’enfant ou d’adolescent très doué techniquement)
Des IA presque humaines et qui, o fil de leurs expériences le deviennent de plus en plus (i compris pour les mauvais cotés)
Nous pouvons alors imaginer des IA d’un même model de départ
devenir plus ou moins fiables, efficace ou tout simplement sympathiques
(Pour le coté sympathique des IA je vous conseille la série télé « Andromeda »

)
C’est la solution que j’ai retenue parce que elle permet de créer beaucoup de situation qui pousse les joueurs à s’interroger sur eux même afin de résoudre les problèmes rencontrés avec les IA dites « supérieurs »
De plus les humains restent un exemple pour les IA qui ont parfois beaucoup de mal a concilier les situations contradictoires voir conflictuelles.
Mes IA ont le sens de la préservation et elles deviennent avec l’expérience très effrayée par la perspective d’être réinitialisées
C’est donc avec sincérité qu’elles demande de l’aide aux humains !
Et voila command je redonne de l’importance aux êtres vivants par rapport aux IA
J’ai même imaginé un historique des tentatives de création d’IA supérieurs viables à longs termes.
Finalement c’est par hasard que les premières « IA a encrage flou » sont apparues
A l’issu d’une discutions entre une jeune IA et un vieux programmeur a propos de leur espérance de vie respectives.
On dit que cette mythique première « IA a encrage flou » avait la personnalité d’un vieillard grincheux
Beaucoup de situations de jeux en perspective
