Reproduire votre esprit en IA, c’est fait !

Un entretien suffit à générer une IA reflétant 85% de vos valeurs, décisions et comportements.
digital twin WideNoText

Des chercheurs de Stanford et DeepMind ont conçu des “agents simulés”, des modèles d’IA capables de reproduire la personnalité humaine avec 85 % de précision après un simple entretien. L’objectif : faciliter les recherches sociales ou éthiques complexes. Ces agents diffèrent des agents utilitaires traditionnels, mais soulèvent des risques, notamment liés aux abus potentiels de la technologie pour imiter des personnes sans consentement.

Le développement des agents simulés repose sur une idée clé : capturer la complexité humaine dans un format exploitable par les modèles d’IA. Contrairement aux méthodes nécessitant de vastes ensembles de données (comme les emails ou les historiques numériques), cette approche privilégie les entretiens qualitatifs, courts mais intenses, pour révéler des traits spécifiques et des comportements complexes. Ces agents ne se contentent pas d’imiter des réponses standards ; ils peuvent refléter des valeurs profondes et des idiosyncrasies uniques.

Les applications envisagées sont vastes. En sociologie, ces agents pourraient simuler des sociétés entières pour tester des politiques publiques ou évaluer l’impact de campagnes de sensibilisation. Dans le domaine éthique, ils permettent d’explorer des scénarios impossibles ou immoraux avec des participants humains. Mais cette puissance technologique pose de nombreuses questions, notamment concernant la création de “jumeaux numériques” sans autorisation, pouvant mener à des usurpations d’identité sophistiquées.

Cependant, la précision actuelle reste limitée. Par exemple, les agents ont échoué à reproduire les nuances des jeux comportementaux comme le “dictator game”, qui révèle des préférences en matière de justice ou d’altruisme. Cette lacune souligne que, même avec des interviews détaillées, il est difficile de capturer tout ce qui fait l’essence d’une personne.

Enfin, si des entreprises comme Tavus s’intéressent à ces avancées pour créer des “clones numériques”, l’aspect éthique et les risques liés à une utilisation abusive de cette technologie devront être réglementés avant une adoption massive.