Data / IA
Confiance.ai cherche des startups pour responsabiliser les IA
Par Laurent Delattre, publié le 28 février 2023
Lancé en 2019 dans le cadre France 2030 pour développer une boite à outils capable d’outiller les applications critiques, le programme Confiance.ai lance un nouvel « appel à manifestation d’intérêt » destiné aux startups et PME innovantes.
Piloté par l’Institut de recherche technologique SystemX, le programme Confiance.ai regroupe aujourd’hui une cinquantaine de partenaires industriels et académiques. Il est financé à hauteur de 30 millions d’euros par l’État et 15 millions d’euros par les entreprises (dont Airbus, Atos, Naval Group, Renault, Safran, Sopra Steria, Thales, Valeo). Ce collectif a présenté en octobre un point d’étape de ses travaux, rappelant ses objectifs : concevoir et industrialiser des systèmes à base d’IA de confiance.
Le collectif encourage les efforts, initiatives et innovations et veut lever les verrous scientifiques qui persistent autour de l’explicabilité, de la transparence, de la sûreté et de la robustesse des technologies d’IA afin de favoriser l’adoption par le public des systèmes critiques les embarquant. En d’autres mots, garantir que des Airbus dont une partie des logiciels d’avionique incluront de l’IA, des dispositifs médicaux ou encore, des véhicules plus ou moins autonomes, méritent la confiance que les utilisateurs devront leur accorder.
Un effort qui s’inscrit parallèlement au respect de la réglementation européenne AI Act à venir qui est évidemment un autre facteur invitant à mettre au point des composants technologiques, des méthodes et des standards de confiance.
Vers une deuxième vague…
Les responsables du programme « Confiance.ai » lancent aujourd’hui un nouvel « appel à manifestation d’intérêt » destiné à recruter des start-up ou PME innovantes susceptibles de contribuer à accélérer les travaux en cours.
À LIRE AUSSI :
En 2021, à l’issue d’un premier appel, 12 lauréats avaient rejoint le consortium (sur les 44 jeunes pousses ayant déposé un dossier) :
– AIR (et sa plateforme de synergie humain-IA Cogment),
– Aividence (modèles explicables et auditabilité des algorithmes IA),
– AzurIA (services IA pour systèmes embarqués),
– Cervval (simulation des systems complexes),
– Datakalab (analyse d’images par IA responsable),
– Golaem (simulation de mouvements de foule),
– Jolibrain (plateforme open source DeepDetect),
– Kereval (cybersécurité des systèmes critiques, IA secteur santé),
– MyDataModels (plateforme prédictive Quaartz),
– Oktal-SE (simulation d’environnements, analyses RF),
– Quantmetry (cabinet de conseil en IA de Capgemini),
– Spix-Industry (ex Simsoft-Industry, assistants vocaux)
Selon le consortium, les technologies expérimentées à cette occasion « ont permis de contribuer à lever un certain nombre de verrous scientifiques et technologiques à travers, par exemple, l’enrichissement de données d’apprentissage, la compréhension des tests de robustesse ou encore la conception d’algorithmes explicables ».
Deux ans après cette première sélection, il est temps de renouveler les projets et d’explorer de nouvelles pistes. D’où ce nouvel appel à manifestation d’intérêt !
Une réunion d’informations en ligne se tiendra le 7 mars, de 10h à 12h pour tous les contributeurs intéressés. Les start-up et PME intéressées devront déposer un dossier avant fin mars. Les entreprises sélectionnées seront auditionnées en avril et mai et les lauréats intégrés en septembre à un ou plusieurs projets du programme. Elles bénéficieront d’une montée en maturité de leurs solutions et d’un financement du programme pouvant atteindre 100.000 € par entreprise. Les projets portent classiquement sur la reconnaissance d’image, la reconnaissance vocale, le traitement du langage naturel, le traitement de séries temporelles, la supervision et l’optimisation de processus.
Une foule de défis qui restent à relever
Les verrous technologiques à lever aujourd’hui ou les améliorations à apporter se déclinent sur plusieurs aspects. Côté données, il s’agit de formaliser les méthodes permettant de définir les volumes de données nécessaires à l’apprentissage comme les critères d’annotation. Toujours dans le domaine des données, l’identification et la qualification des biais demeurent complexes. Le respect du RGPD, de l’AI Act et plus globalement, la sécurisation des données reste encore des enjeux tout comme la caractérisation des bases de données d’apprentissage, de validation et de test. Dans un autre registre, le lien entre les exigences systèmes et les spécifications de performance à atteindre par les composants fait l’objet de travaux. Enfin, l’objectif est toujours et encore d’améliorer les méthodes hybrides mises en œuvre pour garantir la robustesse, l’explicabilité et le monitoring des intelligences artificielles.
« L’ambition de faire de la France un ‘leader de l’IA de confiance’ se matérialise aujourd’hui, au travers de méthodes et outils développés par l’écosystème du programme Confiance.ai, grâce à l’expertise et le savoir-faire de grands groupes, de laboratoires de recherche et académiques mais aussi de startups et PMEs innovantes. La collaboration avec les start-up et PME, rendue possible par l’AMI lancé en 2021, s’est montrée fructueuse à la fois pour le programme et les lauréats. En liens étroits avec les acteurs industriels, ces derniers ont pu tester et faire monter en maturité leurs technologies au bénéfice du programme, répondant ainsi à certains enjeux et à la levée des verrous scientifiques et technologiques de l’intelligence artificielle de confiance », conclut Juliette Mattioli, Présidente du Comité de Pilotage du programme Confiance.ai.
À LIRE AUSSI :
À LIRE AUSSI :