Enjeux juridiques des PropTech - (II) Le recours à l'intelligence artificielle (Règlement IA, RGPD et règles de responsabilité)

Publié le 16 décembre 2024

Télécharger l’article au format PDF

L’expression PropTech (contraction de « Property » et « Technology ») désigne le recours à la technologie et au numérique dans le secteur immobilier, à toutes les étapes de la chaîne de valeur, de la construction à l’asset management et à la gestion du parc immobilier, en passant par les transactions intervenues sur le marché pour vendre ou louer le bien (ou encore les tours de financement éventuels).

Comme dans d’autres domaines (santé, droit, assurance, …), des acteurs bien établis dans le secteur du property management ou de l’asset management, ainsi que de nombreuses start-ups, ont compris l’intérêt de mobiliser les technologies, par ailleurs en évolution constante, pour automatiser des processus existants ou offrir de nouveaux services à toutes les parties prenantes, en particulier les utilisateurs finaux.

On pense, par exemple, à l’impression 3D et à la réalité virtuelle (ou augmentée) au stade de la construction, à l’estimation de la valeur des immeubles par des outils d’intelligence artificielle (IA), aux plateformes d’annonces de vente ou de location en ligne, voire encore à la gestion « intelligente » d’un parc immobilier basée sur l’Internet des Objets (IoT – Internet of Things) ou sur des d’outils collaboratifs permettant de maximaliser l’utilisation des espaces de coworking ou des parkings.

Lime vous propose une analyse des principaux enjeux juridiques des PropTech, dont le deuxième volet est consacré à l’intelligence artificielle (IA)[1].


[1] Pour la valorisation des données en conformité avec le RGPD, voy. Enjeux juridiques des PropTech - (I) Comment valoriser les données en respectant le RGPD?


L’intelligence artificielle – et en particulier l’IA générative, destinée à créer du contenu sous forme de texte ou d’image – offre des opportunités de croissance dans de nombreux secteurs, dès lors qu’elle permet de traiter d’énormes quantités de données, tout en automatisant certains processus, parfois complexes ou fastidieux, sans intervention humaine.

Le secteur des PropTech n’échappe pas à cette tendance, ce dont on peut se réjouir : l’IA peut ainsi être utilisée pour évaluer un bien immobilier, rédiger des annonces, préparer des contrats, faire des états des lieux, réduire la consommation énergétique (ou, plus globalement, l’impact environnemental du secteur), évaluer la solvabilité d’un candidat acheteur ou locataire, ou encore, de manière prédictive, anticiper certaines tendances ou comportements, y compris l’obsolescence de divers produits, etc.

Il faut toutefois mesurer correctement les risques résultant du recours à cette technologie, tout en veillant au respect scrupuleux des textes légaux ou réglementaires potentiellement applicables. On songe en particulier au règlement général sur la protection des données (RGPD) et au récent règlement européen sur l’intelligence artificielle (« Règlement IA »).

1. Application du Règlement IA dans le domaine des PropTech

Le Règlement IA[1] est entré en vigueur le 1er août 2024. Même si de nombreuses dispositions ne seront pas applicables avant août 2026, il convient d’anticiper les exigences qu’il impose, pour s’assurer que les développements technologiques envisagés et, en particulier, le recours à l’intelligence artificielle, soient conformes à celles-ci.

A l’instar d’autres réglementations récentes (comme le DSA), le Règlement IA adopte une approche basée sur les risques :

  • lorsque l’IA présente des risques élevés en termes de protection de la santé, de la sécurité ou des droits fondamentaux, les exigences à respecter par les acteurs sont lourdes et particulièrement détaillées (pouvant aller jusqu’à l’interdiction) ;
  • dans le cas contraire, l’intervention législative se limite principalement à prescrire des obligations d’information ou à promouvoir l’adoption de codes de conduite.

[1] Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (règlement sur l’intelligence artificielle), accessible en suivant ce lien : http://data.europa.eu/eli/reg/2024/1689/oj.

Typologie des systèmes d’IA

Partant du principe que le Règlement IA est applicable, les acteurs qui souhaitent développer et mettre sur le marché des systèmes d’IA et/ou des modèles d’IA (les « fournisseurs » au sens du Règlement IA), ou ceux qui ambitionnent les utiliser sous leur propre responsabilité (les « déployeurs », au sens du Règlement IA) doivent dans un premier temps procéder à un exercice de classification.

Le Règlement IA distingue en effet quatre catégories de systèmes d’IA[1], soumis à des règles plus ou moins strictes en fonction du risque[2] qu’ils créent.

  • L’article 5 du Règlement IA établit une liste de pratiques interdites purement et simplement : techniques subliminales, délibérément manipulatrices ou trompeuses, social scoring, voire encore évaluation de la probabilité de la commission d’une infraction pénale sur la base du profilage d’une personne.
  • Un système d’IA est considéré à haut risque (au sens des art. 6 et s. du Règlement IA) lorsqu’il constitue un produit (ou le composant de sécurité d’un produit) visé par l’une des législations sectorielles énoncées à l’annexe I, et qu’il est par ailleurs soumis à une évaluation de conformité par un tiers. En matière immobilière, il est ainsi fait référence à la directive harmonisant les règles concernant les ascenseurs et leurs composants de sécurité. Figurent aussi, sauf exception, dans cette catégorie, les systèmes d’IA utilisés dans l’un des huit domaines listés à l’annexe III, qui vont de l’éducation à l’administration de la justice, en passant par l’emploi. Le recours à l’IA pour évaluer la solvabilité d’un candidat acquéreur, personne physique, pourrait ainsi tomber sous le coup du point 5, b), de l’annexe III (sauf si la finalité est de détecter les fraudes financières). De nombreuses conditions devront être scrupuleusement respectées : l’objectif est de garantir qu’au moment de leur mise sur le marché, les systèmes d’IA présentent le niveau de sécurité attendu (en conformité avec les normes prescrites), permettant de les utiliser sans risque.
  • S’agissant des systèmes d’IA qui présentent un risque limité en termes de transparence, on vise par exemple le chatbot mis en place par un constructeur immobilier ou un courtier pour donner des renseignements généraux aux clients, prendre des rendez-vous ou donner des conseils en investissement. Les solutions techniques permettant de générer des contenus de synthèse de type audio ou vidéo (« staging » artificiel ou visite virtuelle d’un appartement à construire, par exemple) sont également visées, tout comme les manipulations de contenus constituant un hypertrucage (deepfake). Ces systèmes sont principalement soumis à des obligations d’information, pour permettre aux personnes physiques de savoir qu’elles interagissent avec une machine (et qu’elles puissent décider de poursuivre les échanges ou pas) ou pour marquer clairement les contenus ou les résultats générés ou manipulés par une IA[3].
  • Les systèmes d’IA présentant un risque faible ou nul (un filtre anti-spam, par exemple) peuvent être mis sur le marché et utilisés librement. Aucune exigence particulière n’est imposée par le Règlement IA, qui se borne à promouvoir l’élaboration de codes de conduite en la matière.

[1] Voy. l’art. 3, 1), du Règlement IA pour la définition du « système d’IA » : « un système automatisé qui est conçu pour fonctionner à différents niveaux d'autonomie et peut faire preuve d'une capacité d'adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu'il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels ».

[2] La notion est définie à l’article 3, 2), du Règlement IA et désigne « la combinaison de la probabilité d'un préjudice et de la sévérité de celui-ci ».

[3] Art. 50 du Règlement IA.

Modèles d’IA à usage général et systèmes d’IA à usage général

A côté de cette classification, construite à la lumière des applications possibles des systèmes d’IA (et des risques corrélatifs), une autre typologie est établie, fondée sur la technologie sous-jacente.

  • Le Règlement IA établit en effet des règles applicables aux modèles d’IA à usage général[1], en distinguant ceux qui présentent un risque systémique[2] et les autres[3]. DALL-E ou GPT-4 sont des exemples de modèles d’IA à usage général, grâce auxquels des images ou du langage peuvent être générés.
  • Ces dispositions du règlement IA ont été ajoutées au cours du processus législatif, pour répondre aux enjeux posés par les IA génératives.
  • En pratique, des systèmes d’IA peuvent être fondés sur des modèles d’IA à usage général (on parle alors de systèmes d’IA à usage général, susceptibles d’être intégrés dans d’autres systèmes d’IA). ChatGPT est un exemple de système d’IA à usage général. Dans le domaine des PropTech, ils peuvent par exemple aider les utilisateurs en rédigeant les annonces immobilières ou certains documents contractuels, à partir des informations transmises.
  • Le Règlement IA impose principalement des obligations de transparence aux fournisseurs de tels modèles. En cas de risques systémiques, les exigences sont renforcées, pour évaluer ceux-ci et les atténuer.

[1] La notion est définie à l’art. 3, 63) du Règlement IA. Elle désigne « un modèle d'IA, y compris lorsque ce modèle d'IA est entraîné à l'aide d'un grand nombre de données utilisant l'auto-supervision à grande échelle, qui présente une généralité significative et est capable d'exécuter de manière compétente un large éventail de tâches distinctes, indépendamment de la manière dont le modèle est mis sur le marché, et qui peut être intégré dans une variété de systèmes ou d'applications en aval, à l'exception des modèles d'IA utilisés pour des activités de recherche, de développement ou de prototypage avant leur mise sur le marché ».

[2] La notion de risque systémique est définie à l’art. 3, 65), du Règlement IA.

[3] Art. 51 et s. du Règlement IA.

2. Obligations en matière de traitements des données à caractère personnel

Les entreprises actives dans l’environnement PropTech qui souhaitent recourir à l’IA doivent également être attentives au respect du RGPD.

Cette exigence devra être articulée avec les obligations figurant dans le Règlement IA. Pour les systèmes d’IA à haut risque, l’article 14 du règlement IA exige, en son paragraphe 1er, que « la conception et le développement des systèmes d'IA à haut risque permettent, notamment au moyen d'interfaces homme-machine appropriées, un contrôle effectif par des personnes physiques pendant leur période d'utilisation ».

Les systèmes d’intelligence artificielle se nourrissent de données. Sauf si celles-ci ne constituent pas des données à caractère personnel, le RGPD devra être observé. Il conviendra par conséquent de qualifier les acteurs (fournisseurs, déployeurs, etc.) au sens des catégories du RGPD (responsable du traitement ou sous-traitant, notamment), tout s’assurant qu’ils respectent les principes établis par celui-ci, en termes de base de licéité, de transparence, de finalité du traitement, de minimisation des données, etc. C’est particulièrement important pour les systèmes qui procèdent au profilage des clients potentiels en vue de leur recommander des annonces immobilières personnalisées, ou pour ceux qui analysent les comportements des acteurs sur un territoire donné en vue de prédire le meilleur moment de vendre (ou d’acheter, y compris à des fins d’investissement). On renvoie sur ce point à la note précédente, consacrée à l’application du RGPD dans le domaine des PropTech[1]. Parmi d’autres points d’attention, on recommande aux entreprises souhaitant mobiliser l’IA de rédiger les privacy policies avec précision, et d’analyser finement la base de licéité privilégiée, le consentement pouvant présenter des inconvénients. Les conventions conclues avec les entreprises fournissant les données d’entraînement doivent également être établies avec soin, pour prévenir les éventuelles contestations.

En matière d’IA, une attention particulière devra également être portée à l’article 22 du RGPD, aux termes duquel « la personne concernée a le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l'affectant de manière significative de façon similaire ». L’utilisation de l’IA par un intermédiaire immobilier pour évaluer la solvabilité d’acheteurs potentiels en l’absence d’intervention humaine pourrait tomber sous le coup de cette interdiction. Elle est néanmoins levée si la décision est nécessaire à la conclusion ou à l'exécution d'un contrat entre la personne concernée et un responsable du traitement ou en cas de consentement explicite de la personne concernée.

Il est également intéressant de mettre en perspective le droit à l’information des articles 13-15 du RGPD et le droit à l’explication des décisions individuelles prévu à l’article 86 du Règlement IA. Ces mesures permettent en effet aux personnes concernées, qui auraient été victimes de biais algorithmiques, de contester les décisions prises.

[1] Enjeux juridiques des PropTech - (I) Comment valoriser les données en respectant le RGPD?

3. Quelles responsabilités en cas de dommages causés par l’IA ?

Dans certains cas, on ne peut exclure que le recours à l’IA cause des dommages aux utilisateurs ou à des tiers. Par exemple, un candidat évincé pourrait se plaindre du choix discriminatoire effectué par le système d’IA auquel le propriétaire ou l’agent immobilier a eu recours pour sélectionner son futur locataire, le cas échéant en raison de biais algorithmiques. Suite à des fautes de programmation, des erreurs pourraient aussi être commises par les systèmes d’IA utilisés pour aider les architectes ou les ingénieurs au moment de concevoir et de mettre en œuvre les plans. Un mauvais paramétrage du système d’IA utilisé à des fins de maintenance prédictive des installations d’un immeuble (éclairage, chauffage, etc.) ou pour optimiser sa consommation d’énergie, en fonction des habitudes des occupants pourrait aussi engendrer des préjudices importants aux utilisateurs.

En matière de responsabilité contractuelle ou extracontractuelle, le droit commun des obligations reste applicable (principalement les livres 5 et 6, ainsi que le futur livre 7), même si des incertitudes (ou des difficultés) ne sont pas exclues, lorsque le comportement de l’IA était imprévisible ou impossible à expliquer.

En outre, de nouvelles règles devraient encadrer cette question, lorsque la récente directive 2024/2853 sur la responsabilité du fait des produits défectueux aura été transposée par les Etats membres (décembre 2026) ou si la proposition de directive sur la responsabilité en matière d’IA est finalement adoptée.

En tout état de cause, il faut être conscient des risques financiers (et réputationnels) et, dans le respect des règles applicables, veiller à les encadrer strictement (au moyen de clauses limitatives de responsabilité ou de clauses de garantie, par exemple). Les utilisateurs doivent ainsi être informés des limites de l’outil qui leur est proposé et les accepter au préalable

Pour davantage d’informations, n’hésitez pas à contacter Hervé Jacquemin, Julie-Anne Delcorde, Thierry Tilquin

Suivez nos dernières publications sur LinkdIn