Les architectes vont-ils devenir des superviseurs ?

Article initialement publié dans Archiscopie 22 – été 2020 pp 48- 51
par Pascal Terracol

Tandis que le BIM augmenté fait son chemin, l’intelligence
artificielle sème pour le moins une grande perplexité
dans la communauté architecturale. Le deep learning
va-t-il laisser la main à l’architecte pour garder
la cohérence du projet ? Le generative design,
producteur d’esquisses à l’infini, risque-t-il de réduire
la capacité créative de l’auteur ? Quelles seraient
les options pour l’enseignement et la recherche,
dès lors qu’on parle d’intelligences pour l’architecture ?

Il aura fallu une dizaine d’années aux agences d’architecture pour
intégrer le processus de production BIM (modélisation des informations
du bâtiment). Au-delà des fantasmes initialement véhiculés par cet outil,
de sa réalité économique – il a un coût – jusqu’au risque du tropisme de
production de formes conventionnelles sous l’influence des bibliothèques
de composants architectoniques normalisés ou standardisés, le BIM a
déplacé la position de maître d’œuvre vers les divers bureaux d’études.
Mais la véritable transition numérique, qui suscite à juste titre espoirs
et craintes, mais aussi des fausses idées, se fera avec la généralisation
du BIM augmenté, préfigurant l’usage à grande échelle de l’intelligence
artificielle (IA) par les architectes. Cet outil, qui est déjà présent dans les
cartons des éditeurs de logiciels, aura un impact considérable sur l’acte
de construire. La transmission de l’information entre l’agence et les
entreprises ne passera par exemple plus forcément par la représentation
dessinée du projet.

Internet des objets, contrats intelligents (smart contracts), big data,
blockchain,
voilà donc les éléments qui vont participer à l’avènement de la
conception générative. Rappelons que les outils de l’intelligence artificielle
se déclinent principalement selon trois catégories : la classification
des données, les modèles de régression et la supervision humaine. La
classification des données concerne l’organisation – enfin – du big data.
Il est possible que pour la phase de conception, les outils informatiques
proposent à l’avenir un éventail de solutions résultant d’une typologie
extraite à partir des données présentes sur les divers serveurs du Cloud.
Cette typologie des solutions classifiées conduira-t-elle à l’ajustement du
programme à la parcelle, via le déploiement de cellules spatiales (bureau,
salle de réunion…) dotées d’intelligence sous forme de systèmes multiagent
incluant une capacité d’auto-organisation relative, par exemple, à la
distribution ou aux vues extérieures ?

La régression, elle, réside dans la capacité de l’outil à intégrer un item
du projet quel qu’il soit (par exemple un élément de structure, de façade
ou de morphologie) et à quantifier son écart par rapport à un modèle
analytique préalablement décrit par les outils d’apprentissage profond. Il
s’agit là de statistiques appliquées aux données du projet d’architecture
qui posent immédiatement la question de la complexité, de la granularité
et de la précision de l’échelle de quantification du projet et, in fine, de sa
qualification architecturale

Dans ce processus de décision complexe, la troisième catégorie
d’outils, la supervision, est certainement la part la plus rassurante
laissée à l’humain – ici l’architecte. Ce qu’il faut saisir dans ce terme
“supervision”, c’est l’incomplétude des outils d’intelligence artificielle,
incapables de répondre de manière fiable à toutes les questions posées.
L’humain contribue alors à minorer l’erreur de la proposition, en
écartant les solutions singulières. C’est l’architecte qui reprend la main
afin de tenir la cohérence du projet dans toutes ses caractéristiques en
ce qu’il sait assurément le mieux faire, c’est-à-dire composer avec son
expérience et surtout son bon sens. En faisant cela, il renforcera en
même temps la connaissance du système, qui fonctionne tel un réseau de
neurones : c’est le sens de ce que l’on appelle le deep learning (apprendre
aux machines à apprendre).

S’opposent alors deux conceptions de la complexité : celle de
l’architecte – qui était jusqu’alors “le” spécialiste dans sa capacité à
intégrer la totalité des données du projet – et celle de la structuration des
données à l’oeuvre dans un réseau de neurones artificiels2 inaccessible
à l’esprit humain. La puissance de calcul disponible afin de balayer un
ensemble de solutions bien supérieure aux capacités humaines est-elle
alors un allié permettant de répondre aux questions posées par le projet ?

Au-delà de la difficulté du choix à faire parmi un ensemble d’esquisses
générées par l’outil, selon quelle éthique, quelle politique, quelle
économie, quelle certification, et pour quelles aménités du projet faut-il
tenir le cap au milieu de l’archipel projectuel proposé par un réseau de
neurones ? Et si l’on se place au niveau de la profession, confrontée à la
“démocratisation” des technologies, que dire du devenir de la relation
architecte-client au vu de la multiplicité des sites qui émergent, proposant
des services à la limite de la légalité ?

Disparition de l’interface homme-machine
Avec l’apparition de l’interface homme-machine (ou brain-computer
interface, BCI), un système permettant de contrôler par la pensée un
ordinateur ou un objet, dont les informations sont guidées par la seule
position du regard de l’utilisateur immergé en réalité virtuelle via l’eye
tracking (et bientôt en réalité augmentée), même l’utilisation d’une souris
pourrait devenir obsolète. L’interaction homme-machine va en effet
évoluer vers des paradigmes encore plus connectés. Plusieurs start-up
travaillent sur ces dispositifs ; Neurable est l’une d’elles.
Dé-zoomons un instant. Pour la Chine3, l’IA est clairement
un accélérateur économique devant augmenter le PIB mondial de
15 700 milliards de dollars d’ici 2030. Sur ce total, la Chine empocherait
7 000 milliards, l’Amérique du Nord 3 700. Mais quid de l’Europe ? Voilà
l’un des enjeux économiques liés à l’IA. D’un côté un décodage du réel
à partir du big data, construit sur les paradigmes de la classification et
de la régression, où la complexité le dispute au déterminisme induit
par des algorithmes afin d’atteindre une fiabilité acceptable ; de l’autre,
une indétermination du réel qui intègre la position de l’auteur qu’est
l’architecte. Entre déterminisme et empirisme, l’évolution des outils
d’intelligence artificielle exécute un déplacement épistémologique qui
relativise la maîtrise du code et du modèle, le maître n’étant plus le
scientifique mais bien l’architecte.

Déplacement de la pratique de conception
En amont du projet mené avec les outils d’intelligence artificielle, le
déplacement du processus de conception est à l’oeuvre et interroge. Si
l’IA peut être un atout afin de dépasser la complexité dont la gestion était
jusqu’alors l’une des spécificités de la composition architecturale, les
choix laissés à la supervision ne vont-ils pas renforcer les tropismes déjà
existants ? Le generative design est capable d’une profusion d’esquisses
automatiques ; alors verrons-nous apparaître une homogénéisation
des articulations de programmes en urbanisme ? Un renforcement des
attendus ou des apories du marché déjà présents ? Une généralisation
d’esthétiques classifiées ? En architecture, ces outils reposent de manière
cruciale la question de la création contemporaine, que ce soit dans les
agences ou dans l’enseignement et la recherche.

En aval de la conception du projet, si les outils de réception de chantier
et de levée des réserves sont déjà en place, avec l’IA, si plus personne ne
lit les comptes rendus de chantier, les robots émettront des alertes en
cas d’anomalie, ce qui devrait diminuer le nombre de contentieux. Les
outils de réalité mixte sont aussi à l’œuvre.

Ceux qui ne vont pas tarder à apparaître se nomment blockchain et smart
contracts
. Grâce à la blockchain,
les phases de bons achèvements des travaux, jusqu’à la certification de la
propriété intellectuelle des architectes, seront facilement intégrées. Les
contrats intelligents, qui concernent l’arsenal contractuel des documents
techniques unifiés (DTU) jusqu’à leur articulation juridique, toucheront
aussi d’autres acteurs, comme ceux de la certification du bâtiment. Lors
de la réception du chantier, ces contrats intégreront la vérification des
dispositifs réglementaires et déclencheront la levée des réserves. Leurs
clauses alimenteront la mise en place des dossiers d’ouvrages exécutés
(DOE) en version numérique, encapsulés dans les classes d’objets BIM à
la disposition des gestionnaires de l’édifice. Avec l’IA, ce qui semble se
profiler comme paradigme – et qui serait souhaitable -, c’est un système
d’alertes qui accompagnerait l’architecte dans toutes les phases du projet,
plutôt qu’une forme de démiurge qui viendrait le remplacer.

Au-delà de la réception de l’ouvrage, le double numérique de
l’édifice restera le lieu de signaux, alimenté par un réseau de capteurs
dynamiques (lumière, température, etc.), pilotant les outils de gestion
des services CVC (chauffage, ventilation, climatisation). Des capteurs
de position ou de contrainte in situ sur des éléments structurels ou
intégrés dans des matériaux intelligents permettront,
eux, de superviser a posteriori, sur le long terme et au-delà même de l’extinction des
garanties – le vieillissement de l’ouvrage. Tout cela préfigure un véritable
operating system en temps réel de l’édifice, porté à la disposition des
usagers et des gestionnaires.

Des centaines d’hectares libérés
À l’échelle de la ville et de l’urbanisme, la multiplication des véhicules
autonomes libérera des hectares de voirie. Ces flottes de véhicules seront
les acteurs d’un trafic fluide grâce à l’auto-partage et à la régularisation de
l’interaction entre les divers acteurs : piétons, véhicules, cyclistes. Grâce
à l’IA, ces véhicules seront en mode service, en mode maraude, en mode
recharge d’énergie ou en maintenance. Ils n’auront donc pas besoin de
parcs de stationnement tels qu’ils sont envisagés aujourd’hui. Selon ce
scénario, l’usage de plusieurs centaines d’hectares libérés dans une ville
comme Paris est à repenser en termes d’aménités urbaines et la nature
pourra alors reconquérir sa place dans un espace public en mutation.
Ainsi, l’articulation numérique / écologie pourrait être vertueuse, surtout
si l’on arrive à réguler également l’empreinte environnementale non
négligeable – permanente et en vive croissance – des data centers.
Les architectes doivent-ils avoir peur de l’IA ? À l’issue d’un sondage
réalisé auprès d’une population restreinte d’étudiants, après quelques
échanges, c’est le terme “perplexité” qui apparaît, immédiatement
complété par : “D’habitude on associe l’IA aux robots, mais là c’est
différent, c’est bien qu’il y ait de nouveaux outils qui puissent nous
aider.” À suivre…

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l’aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s