Les architectes vont-ils devenir des superviseurs ?

Article initialement publié dans Archiscopie 22 – été 2020 pp 48- 51
par Pascal Terracol

Tandis que le BIM augmenté fait son chemin, l’intelligence artificielle sème pour le moins une grande perplexité dans la communauté architecturale. Le deep learning va-t-il laisser la main à l’architecte pour garder la cohérence du projet ? Le generative design, producteur d’esquisses à l’infini, risque-t-il de réduire la capacité créative de l’auteur ? Quelles seraient les options pour l’enseignement et la recherche, dès lors qu’on parle d’intelligences pour l’architecture ?

Il aura fallu une dizaine d’années aux agences d’architecture pour intégrer le processus de production BIM (modélisation des informations du bâtiment). Au-delà des fantasmes initialement véhiculés par cet outil, de sa réalité économique – il a un coût – jusqu’au risque du tropisme de production de formes conventionnelles sous l’influence des bibliothèques de composants architectoniques normalisés ou standardisés, le BIM a déplacé la position de maître d’œuvre vers les divers bureaux d’études. Mais la véritable transition numérique, qui suscite à juste titre espoirs et craintes, mais aussi des fausses idées, se fera avec la généralisation du BIM augmenté, préfigurant l’usage à grande échelle de l’intelligence artificielle (IA) par les architectes. Cet outil, qui est déjà présent dans les cartons des éditeurs de logiciels, aura un impact considérable sur l’acte de construire. La transmission de l’information entre l’agence et les entreprises ne passera par exemple plus forcément par la représentation dessinée du projet.

Internet des objets, contrats intelligents (smart contracts), big data, blockchain1, voilà donc les éléments qui vont participer à l’avènement de la conception générative. Rappelons que les outils de l’intelligence artificielle se déclinent principalement selon trois catégories : la classification des données, les modèles de régression et la supervision humaine. La classification des données concerne l’organisation – enfin – du big data. Il est possible que pour la phase de conception, les outils informatiques proposent à l’avenir un éventail de solutions résultant d’une typologie extraite à partir des données présentes sur les divers serveurs du Cloud. Cette typologie des solutions classifiées conduira-t-elle à l’ajustement du programme à la parcelle, via le déploiement de cellules spatiales (bureau, salle de réunion…) dotées d’intelligence sous forme de systèmes multi-agent incluant une capacité d’auto-organisation relative, par exemple, à la distribution ou aux vues extérieures ?

La régression, elle, réside dans la capacité de l’outil à intégrer un item du projet quel qu’il soit (par exemple un élément de structure, de façade ou de morphologie) et à quantifier son écart par rapport à un modèle analytique préalablement décrit par les outils d’apprentissage profond. Il s’agit là de statistiques appliquées aux données du projet d’architecture qui posent immédiatement la question de la complexité, de la granularité et de la précision de l’échelle de quantification du projet et, in fine, de sa qualification architecturale

Dans ce processus de décision complexe, la troisième catégorie d’outils, la supervision, est certainement la part la plus rassurante laissée à l’humain – ici l’architecte. Ce qu’il faut saisir dans ce terme “supervision”, c’est l’incomplétude des outils d’intelligence artificielle, incapables de répondre de manière fiable à toutes les questions posées. L’humain contribue alors à minorer l’erreur de la proposition, en écartant les solutions singulières. C’est l’architecte qui reprend la main afin de tenir la cohérence du projet dans toutes ses caractéristiques en ce qu’il sait assurément le mieux faire, c’est-à-dire composer avec son expérience et surtout son bon sens. En faisant cela, il renforcera en même temps la connaissance du système, qui fonctionne tel un réseau de neurones : c’est le sens de ce que l’on appelle le deep learning (apprendre aux machines à apprendre).

S’opposent alors deux conceptions de la complexité : celle de l’architecte – qui était jusqu’alors “le” spécialiste dans sa capacité à intégrer la totalité des données du projet – et celle de la structuration des données à l’œuvre dans un réseau de neurones artificiels2 inaccessible à l’esprit humain. La puissance de calcul disponible afin de balayer un ensemble de solutions bien supérieure aux capacités humaines est-elle alors un allié permettant de répondre aux questions posées par le projet ?

Au-delà de la difficulté du choix à faire parmi un ensemble d’esquisses générées par l’outil, selon quelle éthique, quelle politique, quelle économie, quelle certification, et pour quelles aménités du projet faut-il tenir le cap au milieu de l’archipel projectuel proposé par un réseau de neurones ? Et si l’on se place au niveau de la profession, confrontée à la “démocratisation” des technologies, que dire du devenir de la relation architecte-client au vu de la multiplicité des sites qui émergent, proposant des services à la limite de la légalité ?

Disparition de l’interface homme-machine
Avec l’apparition de l’interface homme-machine (ou brain-computer interface, BCI), un système permettant de contrôler par la pensée un ordinateur ou un objet, dont les informations sont guidées par la seule position du regard de l’utilisateur immergé en réalité virtuelle via l’eye tracking (et bientôt en réalité augmentée), même l’utilisation d’une souris pourrait devenir obsolète. L’interaction homme-machine va en effet évoluer vers des paradigmes encore plus connectés. Plusieurs start-up travaillent sur ces dispositifs ; Neurable est l’une d’elles. Dé-zoomons un instant. Pour la Chine3, l’IA est clairement un accélérateur économique devant augmenter le PIB mondial de 15 700 milliards de dollars d’ici 2030. Sur ce total, la Chine empocherait 7 000 milliards, l’Amérique du Nord 3 700. Mais quid de l’Europe ? Voilà l’un des enjeux économiques liés à l’IA. D’un côté un décodage du réel à partir du big data, construit sur les paradigmes de la classification et de la régression, où la complexité le dispute au déterminisme induit par des algorithmes afin d’atteindre une fiabilité acceptable ; de l’autre, une indétermination du réel qui intègre la position de l’auteur qu’est l’architecte. Entre déterminisme et empirisme, l’évolution des outils d’intelligence artificielle exécute un déplacement épistémologique qui relativise la maîtrise du code et du modèle, le maître n’étant plus le scientifique mais bien l’architecte.

Déplacement de la pratique de conception
En amont du projet mené avec les outils d’intelligence artificielle, le déplacement du processus de conception est à l’œuvre et interroge. Si l’IA peut être un atout afin de dépasser la complexité dont la gestion était jusqu’alors l’une des spécificités de la composition architecturale, les choix laissés à la supervision ne vont-ils pas renforcer les tropismes déjà existants ? Le generative design est capable d’une profusion d’esquisses automatiques ; alors verrons-nous apparaître une homogénéisation des articulations de programmes en urbanisme ? Un renforcement des attendus ou des apories du marché déjà présents ? Une généralisation d’esthétiques classifiées ? En architecture, ces outils reposent de manière cruciale la question de la création contemporaine, que ce soit dans les agences ou dans l’enseignement et la recherche.

En aval de la conception du projet, si les outils de réception de chantier et de levée des réserves sont déjà en place, avec l’IA, si plus personne ne lit les comptes rendus de chantier, les robots émettront des alertes en cas d’anomalie, ce qui devrait diminuer le nombre de contentieux. Les outils de réalité mixte sont aussi à l’œuvre.

Ceux qui ne vont pas tarder à apparaître se nomment blockchain et smart contracts. Grâce à la blockchain, les phases de bons achèvements des travaux, jusqu’à la certification de la propriété intellectuelle des architectes, seront facilement intégrées. Les contrats intelligents, qui concernent l’arsenal contractuel des documents techniques unifiés (DTU) jusqu’à leur articulation juridique, toucheront aussi d’autres acteurs, comme ceux de la certification du bâtiment. Lors de la réception du chantier, ces contrats intégreront la vérification des dispositifs réglementaires et déclencheront la levée des réserves. Leurs clauses alimenteront la mise en place des dossiers d’ouvrages exécutés (DOE) en version numérique, encapsulés dans les classes d’objets BIM à la disposition des gestionnaires de l’édifice. Avec l’IA, ce qui semble se profiler comme paradigme – et qui serait souhaitable -, c’est un système d’alertes qui accompagnerait l’architecte dans toutes les phases du projet, plutôt qu’une forme de démiurge qui viendrait le remplacer.

Au-delà de la réception de l’ouvrage, le double numérique de l’édifice restera le lieu de signaux, alimenté par un réseau de capteurs dynamiques (lumière, température, etc.), pilotant les outils de gestion des services CVC (chauffage, ventilation, climatisation). Des capteurs de position ou de contrainte in situ sur des éléments structurels ou intégrés dans des matériaux intelligents permettront, eux, de superviser a posteriori, sur le long terme et au-delà même de l’extinction des garanties – le vieillissement de l’ouvrage. Tout cela préfigure un véritable operating system en temps réel de l’édifice, porté à la disposition des
usagers et des gestionnaires.

Des centaines d’hectares libérés
À l’échelle de la ville et de l’urbanisme, la multiplication des véhicules autonomes libérera des hectares de voirie. Ces flottes de véhicules seront les acteurs d’un trafic fluide grâce à l’auto-partage et à la régularisation de l’interaction entre les divers acteurs : piétons, véhicules, cyclistes. Grâce à l’IA, ces véhicules seront en mode service, en mode maraude, en mode recharge d’énergie ou en maintenance. Ils n’auront donc pas besoin de parcs de stationnement tels qu’ils sont envisagés aujourd’hui. Selon ce scénario, l’usage de plusieurs centaines d’hectares libérés dans une ville comme Paris est à repenser en termes d’aménités urbaines et la nature pourra alors reconquérir sa place dans un espace public en mutation.
Ainsi, l’articulation numérique / écologie pourrait être vertueuse, surtout si l’on arrive à réguler également l’empreinte environnementale non négligeable – permanente et en vive croissance – des data centers. Les architectes doivent-ils avoir peur de l’IA ? À l’issue d’un sondage réalisé auprès d’une population restreinte d’étudiants, après quelques échanges, c’est le terme “perplexité” qui apparaît, immédiatement complété par : “D’habitude on associe l’IA aux robots, mais là c’est différent, c’est bien qu’il y ait de nouveaux outils qui puissent nous aider.” À suivre…

1 Technologie de stockage et de transmission d’informations, sécurisée, sans organe central de contrôle ; une base de données contenant l’historique des échanges entre ses utilisateurs et partagée par ceux-ci, sans intermédiaire, chacun pouvant vérifier la validité de la chaîne.

2 Cf. « L’apprentissage face à la grande dimension », cours de Stéphane Mallat, <https://www.college-de-france.fr/site/stephane-mallat/course-2017-2018.htm>.

3 D’après Kai-Fu Lee citant PricewaterhouseCoopers dans son ouvrage IA, la plus grande mutation de l’histoire. Comment la Chine devient le leader de l’intelligence artificielle et pourquoi nos vies vont changer, Paris, Les Arènes, 2019. 

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l’aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s