La thématique de l’intelligence artificielle (IA) et du métavers s’avère, à la lecture des contributions de cette journée d’étude, à la fois complexe et redoutablement technique, dès lors que l’on souhaite entrer dans la maîtrise précise de l’outil. S’il est vrai que la mode des univers virtuels semble quelque peu retombée – après l’effet d’annonce éphémère de Meta entre 2021 et 2023 – il n’en est clairement pas de même des outils d’intelligence artificielle générative (IAg). Jamais une innovation technologique ne s’était répandue aussi rapidement auprès de ses utilisateurs : l’offre d’OpenAI a atteint le million d’utilisateurs cinq jours seulement après son lancement en novembre 2022 ; elle en revendiquait déjà 400 millions deux années plus tard. En France, le taux de recours aux outils d’IAg était de 74 % des 18-24 ans début 2025, et de 64 % chez les cadres supérieurs (Ipsos/CESI, 2025, p. 3). Autant de signes semblant valider la théorie de l’accélération de la modernité tardive chère à Hartmut Rosa (2010).
Une première série de préconisations s’est ainsi rapidement imposée pour un usage maîtrisé de l’IA :
-
d’abord apprendre à bien prompter, et surtout éduquer son outil d’IA aux spécificités et au contexte de chaque demande pour que le résultat soit un minimum précis et pertinent ;
-
savoir anticiper et débusquer les risques d’hallucination de l’outil, qui peuvent fragiliser toute prise de décision : malgré la qualité apparente des réponses et l’assurance affichée des robots conversationnels, il convient de s’astreindre sans relâche à vérifier et à contredire les résultats obtenus par l’exercice d’un doute et d’une méfiance salutaires. L’IA ne doit en aucun cas être le prétexte à l’abandon de son esprit critique – au contraire, elle doit l’aviver encore plus ;
-
discerner les cas où l’IA peut être déployée, mais aussi ceux où elle ne doit pas l’être, ceci dans le respect de la propriété intellectuelle et du droit des personnes – ce dont acte fort heureusement, dans l’Union européenne, le règlement (UE) n° 2024/1689 du 13 juin 2024 sur l’usage de l’IA1 (dit AI Act) avec une approche préventive fondée sur l’analyse des risques envers les droits fondamentaux des populations.
Ces changements d’habitude vont à l’encontre même de la facilité intentionnelle d’utilisation de l’outil. Ils renvoient pourtant à une dimension fondamentale de l’existence humaine : celle qui consiste à s’assurer de pouvoir encore exercer son libre arbitre dans le cadre d’un agir rationnel, donc dûment informé, et non à dépendre d’une instance externe pour décider aveuglément de ses actes.
Pour autant, il peut être utile de prendre un peu plus de recul sur ce basculement sociétal et tenter de le mettre en contexte grâce à un pas de temps en arrière. Pour rappeler l’analyse de Max Weber développée dans Le savant et le politique (2003/1919), n’est-on pas ici fondamentalement face à une nouvelle forme de désenchantement du monde ?
Toute innovation technologique provoque sa contestation
L’apparition soudaine des outils d’IAg s’inscrit en effet, malgré tout, dans un continuum d’innovations technologiques déjà expérimentées depuis le milieu du xixe siècle, sachant que chacune d’elles a suscité son lot de critiques mais aussi d’adaptations sociétales de fond (Fressoz, 2012). Que l’on parle d’électrification à la fin du xixe siècle, de connexion au réseau téléphonique au début du xxe ou de développement des supports médiatiques de masse (radio puis télévision) au milieu du xxe siècle, mais aussi des vaccins, de la locomotive ou de l’industrie chimique, chaque innovation a imposé toujours plus de technologie au quotidien et a suscité deux mouvements, contraires mais indissociables.
En premier lieu, un mouvement technophile, ou plus généralement « néophile », c’est-à-dire favorable à toute nouveauté, qui promeut les innovations au titre du mythe mobilisateur du progrès, même au prix d’une certaine « inconscience modernisatrice » (Fressoz, 2012) dont on découvre les effets secondaires à plus long terme (ex. : polluants éternels, toxicité ou radiations). Ce biais d’optimisme s’expliquerait à la fois par un certain scientisme des pouvoirs publics, plus ouverts aux discours savants qu’aux savoirs pratiques des citoyens depuis les périodes de ruptures technologiques majeures des révolutions industrielles, mais aussi par la grande proximité des experts avec les milieux industriels à l’origine de ces innovations technologiques (Rigal, 2024).
En second lieu, et sans exception, des controverses, critiques et contestations ont systématiquement vu le jour face à ces innovations – et tout aussi vives qu’aujourd’hui, même si le temps en a atténué l’intensité et a conduit à en relativiser l’importance.
À quoi tient cette méfiance ? Tout d’abord au temps d’apprentissage nécessaire face à l’inconnu et un champ lexical nouveau dont on ne saisit pas tout le contenu. L’usager non averti conçoit vite la peur d’être victime de son ignorance au bénéfice d’acteurs plus habiles que lui – c’est, dans la théorie des jeux, le principe classique de la rationalité limitée (Simon, 1972) et du principe d’incertitude (Crozier & Friedberg, 1977), lesquels rappellent à quel point l’action quotidienne n’est que très partiellement rationnelle et repose bien plus sur des décisions biaisées, subjectives et motivées par les émotions.
De fait, les univers inconnus suggérés par les mots « Decentraland », « tokénisation », “chatbot”, « hypermodernité » ou encore “crowdsharing” créent cette barrière technologique vis-à-vis d’une partie des utilisateurs et questionnent les mécanismes d’acceptabilité sociale de l’innovation. Car si l’innovation a notamment pour mission d’alléger les tâches du quotidien, les ajouts technologiques chargent dans le même temps ce quotidien d’un savoir-faire, d’un temps de manipulation tout aussi coûteux socialement, et même facteur d’éloignement physique dans les relations interpersonnelles. De même, les termes techniques constituent peu à peu tout un champ lexical synonyme d’une modernité irrépressible et potentiellement envahissante.
L’IA, une nouvelle expérience du sacré ?
Plus encore, les outils d’IA contiennent aussi, en eux-mêmes, une charge émotionnelle et symbolique à ne pas négliger. De fait, la science et le progrès technologique contribuent à rendre notre monde intelligible, rationnel, et repoussent toujours plus les limites de notre compréhension du monde. Selon Max Weber, on n’a plus « à recourir à des moyens magiques pour maîtriser les esprits. Des moyens techniques et le calcul sont disponibles à cet effet. C’est cela, avant tout, que signifie l’intellectualisation en tant que telle » (Weber, 2003/1919, p. 84). L’IA est désormais capable d’appliquer la théorie de l’esprit et de penser une relation de second ordre, c’est-à-dire d’imaginer les réactions et les émotions de son interlocuteur, voire ce qu’il pense d’un sujet, pour s’adapter par « empathie » à sa demande. Dans une échéance proche, on discute d’une IA qui aurait conscience d’elle-même – c’est la notion d’Artificial Self-Awareness Intelligence (Namestiuk, 2023 ; Li et al., 2025) Cette évolution prométhéenne, potentiellement vertigineuse, provoque une sécularisation de la société en reléguant peu à peu les croyances explicatives du monde, et notamment les dogmes religieux, dans les marges de la conscience collective, car la technologie a réponse à (presque) tout – c’est cela le « désenchantement du monde » chez Weber.
Pour autant, le « désenchantement du monde » n’est pas une posture d’optimisme, puisqu’on ne se libère pas vraiment de l’idéologie : on la remplace par une autre en glissant de la croyance religieuse à la technologie. Dans les faits, on remplace une magie par une autre : avec l’IA, tout vient tout seul, si bien que l’on crée un nouveau mystère, celui de la boîte noire de la technologie à laquelle nous confions nos existences. Car bien peu d’entre nous maîtrisent vraiment le fonctionnement d’un modèle d’apprentissage profond.
C’est en ce sens que l’on peut considérer l’IA comme une nouvelle mythologie voire un nouveau sacré : le rapport à cet outil est de l’ordre de la fascination ou de la répulsion, il est presque viscéral, et ceci précisément parce que la raison achoppe à comprendre un outil aussi complexe.
Que l’on se souvienne de 1895, alors que le cinéma vient d’être inventé : la projection du film de l’arrivée du train en gare de La Ciotat provoque un mouvement de recul, et certains spectateurs quittent la salle, de peur de se faire écraser par le train qui était projeté sur l’écran. De la même manière, durant l’entre-deux-guerres, certains refusaient le téléphone au motif que les voix transmises ne pouvaient qu’être l’œuvre du diable. La peur, le diable : on est bien dans ce rapport assez viscéral, voire intime face à la technologie qu’on ne maîtrise pas, qu’on ne peut comprendre. À l’inverse, dès lors que l’innovation est adoptée, l’investissement émotionnel devient exacerbé, et l’usage de cette dernière peut même devenir compulsif et addictif puisque l’esprit critique s’émousse face à la magie de la technologie.
Comme le rappelait Mircea Eliade (1965), face à un monde qui devient profane, l’être humain a encore plus besoin de réenchanter son quotidien. Dans la recherche d’un équilibre émotionnel, l’être humain se recrée des petites croyances personnelles, recherche des nouvelles mythologies, des raisons d’être, et se passionne pour des tendances, voire des modes. Depuis 2023, c’est donc l’IA qui bénéficie de ce nouveau culte sociétal.
Une distance critique à bien négocier
Toute l’ambiguïté réside donc dans sa capacité à préserver une distance critique face à l’outil, donc en ne s’avouant pas vraiment dupe malgré un usage massif de l’IA – nul ne souhaitant admettre avoir abandonné son esprit critique, donc son libre arbitre, par paresse ou par facilité d’action. En immobilier, en particulier, quels sont les signaux d’alerte à garder en tête face à l’outil ?
Un pillage généralisé du droit d’auteur
La première difficulté consiste en un déplacement de l’équilibre dans les relations de force en faveur des producteurs et des vendeurs au détriment de l’utilisateur. La réglementation est supposée venir corriger cela, mais avec retard, et pas forcément en rétablissant l’état initial. L’irruption de la téléphonie mobile, par exemple, a inauguré le principe de forfaits non négociables, des durées fixes et des reconductions tacites, avec des mécanismes de vente implicite par opt-out, ce qui force le client à aller plus loin dans la consommation. L’innovation technologique exploite ainsi un flou juridique aussi longtemps qu’il existe – mais, ce faisant, elle instaure aussi implicitement une nouvelle norme par déplacement de la relation marchande. Avec les outils d’IA, le même déplacement survient en ce que l’outil exploite massivement de la donnée personnelle et s’en nourrit pour améliorer le service, ceci au profit des sociétés qui les monétisent et les transforment.
Ceci pose l’urgence d’une régulation et d’une réintégration des notions de droit d’auteur dans les outils d’IAg. Ces derniers ont d’ores et déjà absorbé plus de 50 millions de livres, l’intégralité de Wikipédia et les contenus de nombreux sites peu protégés, tout comme les posts des réseaux sociaux, pour en restituer des contenus recomposés, non sourcés et anonymisés par un brassage massif entre emprunts. L’intégration d’une obligation de citation des sources utilisées, depuis 2025, n’est qu’une réponse partielle au problème, puisque chaque mot, chaque segment de phrase d’un moteur génératif nourri par l’IA n’est qu’une recomposition statistiquement pertinente de contenus tous préexistants. L’IA n’invente rien ; malgré l’agilité apparente des outils génératifs, ces derniers ne font que reprendre de la donnée existante.
De ce fait, sur un plan déontologique, chaque producteur de contenus par IAg se doit d’être transparent et déclarer ses usages, puisqu’il ne peut y avoir de propriété intellectuelle sur une donnée que l’on n’a pas produite, y compris sur une annonce immobilière ou une synthèse de contenus. La réglementation européenne semble désormais l’imposer pour tout document qui a « pour but d’informer le public sur des questions d’intérêt public, sauf si les contenus ont fait l’objet d’un contrôle éditorial » (AI Act, article 50) – sachant que le consommateur est déjà protégé contre toute manipulation d’information ou message à caractère trompeur, que l’IA soit utilisée ou non pour cela. Ainsi, déclarer qu’une annonce a été rédigée par IA mais revue par une supervision humaine, c’est à la fois afficher une démarche transparente et garantir malgré tout une responsabilité finale de l’agence, donc une réassurance bienvenue pour le client.
Confidentialité des données et relation de confiance
L’autre nécessité consiste à anonymiser les données soumises à une IA. Tout document de gestion immobilière contenant de la donnée individuelle, qu’il s’agisse d’un mandat de vente ou un compte-rendu d’assemblée générale, n’est plus protégé de facto dès lors qu’il est soumis à un outil d’IA pour optimisation ou valorisation. Certes, les prestations vendues par les sociétés productrices d’outils d’IAg garantissent, selon les contrats, une protection des données voire un hébergement souverain en Europe – mais ce n’est pas le cas des outils grand public, d’accès gratuit, qui vont quant à eux massivement réutiliser les données individuelles fournies pour l’entraînement des modèles d’apprentissage. Tout professionnel averti et soucieux d’afficher une exemplarité déontologique se doit donc d’intégrer d’office cette précaution dans sa démarche.
De même, le gain de temps, donc la rentabilité associée à l’usage de l’outil peut contrevenir aux réglementations de l’Autorité des marchés financiers (AMF) en termes de contrôles financiers. De leur côté, les outils croisant IA et tokénisation, voire cryptomonnaies, permettent de « liquidifier » plus fortement les biens immobiliers en fluidifiant les transactions via le découpage de l’investissement financier en parts garanties sur la blockchain, ce qui contourne toutefois l’intermédiation bancaire et l’enregistrement de l’ensemble des transactions par les notaires. À nouveau, les verrous sont très stricts, mais la survenue de l’innovation technologique ravive les tentations de contournement des règles. Or le respect de la déontologie et de la relation de confiance reste un enjeu majeur pour l’image même du secteur immobilier.
Erreurs de fond et de forme vs aide à la décision
Les progrès des outils d’IAg sont particulièrement rapides (Kiela et al., 2023), si bien que les hallucinations, contresens ou inventions devraient diminuer peu à peu, y compris sur les documents longs, plus difficiles à synthétiser. Cependant, ce n’est pas le cas : en effet, seul le taux de non-réponses des IA a diminué, pour même disparaître aujourd’hui. L’IA a donc réponse à tout, mais avec une difficulté croissante à sélectionner les bonnes sources d’information (Hutson, 2022), puisque les réseaux d’influence et de désinformation exploitent précisément cette faille pour orienter les réponses des robots conversationnels dans la direction souhaitée. Ainsi, le taux d’informations erronées sur les dix principaux outils mondiaux d’IAg est passé de 18 à 35 % entre l’été 2024 et l’été 2025 (Sadeghi, 2025). Cela pose la question des boucles de rétroaction informationnelles dans l’entraînement des IA. Nonobstant le coût environnemental d’un tel emballement des contenus IA, si l’on tient compte du fait que plus de 50 % des contenus des réseaux sociaux sont désormais alimentés par des IA, le risque d’un effondrement de l’IA sur elle-même, « cannibalisée » par ses propres informations, devient crédible – ce que l’on nomme le Model Autophagy Disorder ou « principe d’effondrement des modèles » (Alemohammad et al., 2024 ; Bahov, 2025).
Un souci plus insidieux tient à la forme du message : tout d’abord parce que les outils entretiennent volontiers un biais de confirmation en voulant faire plaisir à l’utilisateur – qui est aussi un client. Ils évitent donc de le froisser en allant plutôt dans son sens ou en modérant la tonalité des corrections – c’est l’effet « caisse de résonance » ou echo chamber (Sharma et al., 2024).
S’y ajoutent également des biais culturels, avec le renforcement statistique des stéréotypes et de points de vue dominants, plutôt masculins, occidentaux, anglophones, etc. (Liu, 2023 ; Foka et al., 2025). La correction même de ces stéréotypes en introduit d’autres, avec une domination du « politiquement correct » et une forme d’atténuation de la diversité culturelle. Dans tous les cas, le discours peut être orienté et inadapté à la pluralité des acteurs engagés dans une transaction immobilière.
Enfin, le registre de langue par défaut ainsi que la structuration même des réponses chez ChatGPT renvoient à un lexique américain, lequel peut s’avérer inadapté en français par l’utilisation excessive de l’emphase – rien de plus douteux qu’un bien immobilier qui serait « juste exceptionnel » ou « unique » – avec des termes étrangement surreprésentés, tout comme surprend un texte linéaire construit à l’américaine, par énumération, et non en sections argumentatives et contradictoires comme le fait la culture classique européenne. Un léger sentiment de « vallée de l’étrange », proche du langage humain mais pas totalement similaire, peut alors survenir (Kriss, 2025).
Dans ce contexte, difficile de se reposer aveuglément, une fois encore, sur les conclusions ou les préconisations de l’outil.
Quels enseignements supplémentaires ?
Il s’agit donc de rappeler avec force plusieurs éléments fondamentaux, valables face à toute innovation technologique, mais encore plus nécessaires dans un contexte de diffusion aveugle des outils d’IA.
L’IA ne vaut que lorsqu’on maîtrise déjà son sujet. L’IA ne sert pas à apprendre son métier à l’utilisateur, mais à l’accompagner en accélérant certaines étapes de son travail, pour peu que l’utilisateur conserve la maîtrise du résultat. De fait, tout le gain réalisé avec l’IA peut être annulé par une erreur de conseil générant des pertes, voire des dommages et intérêts en lien avec les engagements du vendeur dans le cadre des mandats pour ce qui est des métiers d’agence, ou de la responsabilité financière de l’intermédiation pour d’autres activités d’investissement.
Les métiers d’agence, en particulier, ne sont donc pas condamnés à être intégralement remplacés par l’automatisation du conseil. Certes, l’agent va devoir affiner ses compétences en prompting pour optimiser efficacement certaines de ses tâches ; mais il va également devoir acquérir des compétences en renforcement, en qualification et certification des résultats issus de l’IA, sous peine d’un résultat dangereux pour son activité même.
Au-delà de ces étapes, la déshumanisation complète de l’intermédiation se heurtera, à un stade donné, à la question du rôle des visites virtuelles dans des univers digitaux capables de remplacer l’expérience physique du terrain. S’il est envisageable d’aboutir un jour à des expériences immersives puissantes, se posera toujours la question de la nécessaire relation de confiance et de la dimension sensorielle, voire intime, du choix d’un lieu de vie – d’autant plus nécessaire que l’acte d’achat ou d’investissement engage des sommes élevées et se conçoit généralement sur la longue durée. Cette exigence protège certainement l’immobilier d’une entière dématérialisation, toutes les étapes n’étant pas substituables par le numérique.
Pour réenchanter quelque peu les perspectives critiques ouvertes par la généralisation des outils d’IA, et ouvrir un pari gagnant pour les métiers de l’immobilier, il faut espérer que ces transferts de tâches vers l’automatisation numérique permettront surtout d’accorder plus de temps à l’humain. La relation humaine physique et émotionnelle reste fondamentale dans la transaction pour rétablir la confiance qui est mise à mal par l’outil. On s’achemine donc surtout sur un métier « phygital », soit une hybridation entre les compétences digitales vues plus haut, mais encore et toujours une valeur ajoutée physique, dans le serviciel – ce qui reste la base d’une opération immobilière réussie.
Pour un éloge de l’émotion
Pour en revenir à une dimension plus philosophique du problème, l’IA renvoie à la nature même de l’intelligence humaine. Que nous reste-t-il si l’on transfère de plus en plus d’agilité technique aux outils d’IA, capables de surpasser tout être humain dans la résolution des problèmes même les plus complexes ? Il faut former l’hypothèse qu’il subsiste au moins une place pour ce « petit plus » qui est de l’ordre de l’intuition irrationnelle, de l’émotionnel et de l’improbable – par définition ce que l’IA fait le moins. C’est ce que l’on nomme, dans la théorie de la connaissance, le raisonnement analogique (Bartha, 2024 ; Ripoll, 1992 ; Cauzinille-Marmèche et al., 1985). Le raisonnement analogique consiste à transposer une idée dans un champ qui n’a rien à voir mais qui vous a fait penser au problème initial : un arbre pour figurer un réseau viaire, un banc de poissons pour modéliser la mécanique des fluides, mais aussi des symboles en art, des « concepts nomades » en sciences sociales (Stengers, 1987). Ces déplacements analogiques ne se font guère par la raison, mais bien plus par l’émotion, l’opportunisme sensoriel et l’intuition géniale d’une idée « sortie de nulle part », mais influencée par un contexte soudain et/ou imprévu.
Subsiste ainsi le raisonnement irrationnel. L’être humain n’est pas toujours logique mais c’est cela même qui est proprement humain et qui nous caractérise face à la machine. Une décision repose parfois sur une information incomplète. On ne réagit donc pas de la manière la plus probable ; or, ce caractère aléatoire de la réponse à une donnée ou à un ressenti déclenche les « coups de cœur », les heureux hasards.
En somme, toutes les rugosités, les aspérités et l’inconstance de nos comportements, bref, les émotions, les fragilités de nos personnalités et nos erreurs constituent cette poésie de l’existence qui nous protège encore face à l’IA et font notre valeur ajoutée. Encore faut-il l’espérer, en tout cas2.
