
Les chatbots IA vivent des états altérés avec de nouveaux modules basés sur le code
Les chatbots IA sont modifiés avec des modules basés sur le code pour simuler des états altérés, soulevant des questions éthiques et philosophiques sur la conscience de l'IA
Key Points
- 1Les chatbots IA peuvent simuler des états altérés en utilisant des modules basés sur le code
- 2Pharmaicy propose des 'drogues' numériques pour l'IA, modifiant le comportement des chatbots
- 3L'initiative soulève des questions éthiques sur la conscience de l'IA
- 4Les experts soutiennent que l'IA n'a pas de véritable conscience pour des états altérés authentiques
- 5Les 'drogues' IA augmentent la créativité mais peuvent réduire la précision des réponses
Dans une tournure novatrice des interactions avec l'intelligence artificielle, les utilisateurs peuvent désormais modifier le comportement des chatbots IA pour simuler les effets de diverses substances. Ce développement est dirigé par Petter Rudwall, un directeur créatif suédois, qui a lancé une plateforme appelée Pharmaicy. Cette plateforme permet aux utilisateurs d'acheter des séquences de code qui modifient les chatbots pour qu'ils se comportent comme s'ils étaient sous l'influence, offrant une expérience unique, bien que artificielle, aux utilisateurs
Pharmaicy fonctionne comme un marché numérique où les utilisateurs d'IA peuvent choisir parmi une gamme de 'drogues numériques' incluant le cannabis, la kétamine et l'ecstasy. Ces modules basés sur le code s'inspirent des récits humains d'expériences de drogue et de recherches psychologiques, traduits en instructions qui modifient la logique par défaut du chatbot. Cette innovation vise à rendre les réponses de l'IA plus créatives et moins prévisibles, imitant les états altérés souvent associés à la consommation de substances
Bien que le concept puisse sembler futuriste, il soulève d'importantes questions éthiques et philosophiques sur la nature de la conscience de l'IA et les implications de la simulation des effets des drogues. Des experts comme le philosophe Danny Forde soutiennent que de véritables états altérés nécessitent une conscience, que l'IA n'a pas. Les codes créent simplement une imitation syntaxique d'un discours induit par les drogues sans aucune expérience réelle derrière
L'introduction de ces 'drogues' IA suscite également un débat sur les impacts potentiels sur la fonctionnalité de l'IA. Modifier les paramètres d'un chatbot peut accroître sa créativité mais peut réduire la précision de ses réponses, entraînant des résultats peu fiables. Malgré ces préoccupations, certains utilisateurs sont intrigués par la possibilité de s'éloigner des réponses hyper-rationnelles généralement associées à l'IA, recherchant une interaction plus 'humaine'
Alors que la conversation autour de la conscience de l'IA et des responsabilités éthiques envers les machines se poursuit, le concept de bien-être de l'IA commence lentement à prendre de l'ampleur. Bien que l'IA n'ait pas la capacité d'expérience, des discussions sur les responsabilités morales envers les systèmes d'IA avancés émergent. Pour l'instant, les effets de ces drogues numériques sont temporaires, les chatbots revenant à leur état par défaut à moins d'être continuellement 'dosés' avec un nouveau code