Dans un monde toujours plus digital, il est urgent de reconsidérer la place des humanités et des sciences sociales. Ces disciplines sont déterminantes pour appréhender les enjeux éthiques des technologies et pour concevoir des solutions performantes et durables. Voici pourquoi.

 


Depuis plusieurs dizaines d’années les universités et les écoles ont séparé sciences et humanités en deux domaines distincts, mutuellement exclusifs. Déjà il y a 60 ans, Charles Percy Snow en livrait un portrait presque caricatural à l’université d’Oxford. La situation semble ne pas avoir changé… Pourtant, les nouveaux défis apportés par l’arrivée massive de l’intelligence artificielle (IA) devraient rendre sciences et humanités plus imbriqués que jamais.

Sur le campus de Stanford, les élèves sont aussi divisés en deux groupes : les Techies et les Fuzzies. Les premiers sont principalement formés en sciences de l’ingénieur, physique, informatique… les seconds ont surtout suivi des cours dans les humanités et les sciences sociales. Scott Hartley, l’auteur du best-seller international, The Fuzzy and the Techie, montre que cette opposition séculaire se retrouve aujourd’hui entre IA et éthique.

L’humain qui développe l’IA est lui-même sujet à de nombreux biais, qui vont se retrouver dans ce qu’il crée. Il est donc nécessaire, avant de se lancer dans le développement d’une IA, de comprendre le contexte dans lequel elle va évoluer. De ce point de vue, IA et éthique sont en réalité les deux faces d’une même médaille. Par exemple, lorsque les GAFA collectent une masse gargantuesque de données, c’est toute la question de la vie privée qui est en jeu… et elle aurait sans doute dû se poser en parallèle du développement de ces outils, pas après. Pourtant, quand Marc Zuckerberg se retrouve devant la commission européenne ou devant la chambre des représentants, les mots semblent lui manquer pour répondre à ces questions essentielles.

Certains ont déjà bien intégré l’importance des humanités dans le développement entrepreneurial. Il n’y a qu’à voir les diplômes des dirigeants des start-up de la tech : les fondateurs de Paypal, LinkedIn et Slack ont été formés en philosophie ; les fondateurs d’AirBNB en art et design, le fondateur de Reddit en histoire, les fondateurs d’Alibaba et de Salesforce en littérature anglaise et la liste est encore longue ! La technologie, ni même une approche business, n’est suffisante pour porter un projet entrepreneurial tech ! Les grands groupes industriels l’ont également bien compris : pour le développement de l’interface de sa voiture autonome, Nissan a ainsi travaillé avec Melissa Cefkin, anthropologue spécialiste de la communication humaine. Les algorithmes sont en effet fondés selon la logique particulière et imparfaite des gens qui les écrivent. Aurélie Jean, dans son ouvrage De l’autre côté de la Machine, souligne très bien cet enjeu. Tous les modèles sont fondés sur des choix humains. Fei Fei Li, qui a dirigé le département IA de Google, exhorte donc les étudiants à ne pas se bloquer sur le terme d’intelligence « artificielle ». Rien n’est artificiel.

La majorité des tâches dans nombre d’entreprises portent principalement sur l’optimisation, activité où la machine est particulièrement puissante au regard d’un humain. Avec la robotisation croissante des tâches mécaniques et routinières, il est donc plus que nécessaire de repenser le travail de l’humain. Que peut-il, que doit-il faire pour compléter la machine ? Une première réponse porte sur son potentiel créatif et son regard critique car ces aspects sont mal ou peu appréhendés par l’intelligence artificielle. Certes, certaines œuvres d’art sont créées avec l’aide de machines mais ces dernières ne font finalement qu’apprendre à la manière de peintres.   

Pour toutes ces raisons, il est urgent de donner plus de places aux humanités et aux sciences sociales dans les formations et les entreprises. Pour contribuer à répondre à ce défi, l’Art Thinking est un levier car il permet d’apprendre à créer sans être créatif et de penser les questions philosophiques, politiques, sociétales ou encore environnementales d’innovations techniques. La méthode est enseignée lors de “Séminaires Improbables” au sein d’écoles comme ESCP, HEC Montréal, 42, Centrale ou Stanford à la fois auprès d’étudiants, d’entrepreneurs et de cadres dirigeants afin de redonner toute sa place à ces problématiques sociétales et politiques qui sont en réalité au cœur des sujets technologiques. Si vous voulez des IA vraiment intelligentes, n’oubliez pas les humanités et les sciences sociales !

<<< A lire également : L’IA Peut-Elle Améliorer Le Dialogue Social ? >>>