Une IA en Open Source : le futur idéal ?

Data / IA

L’open source, élément clé pour l’avenir de l’IA

Par La rédaction, publié le 03 octobre 2024

La collaboration et la transparence au sein d’une communauté sont les deux piliers de l’open source. Ils assurent la capacité des solutions ouvertes à faire évoluer le développement et le déploiement des systèmes d’IA. Cela explique pourquoi l’IA doit adopter une approche ouverte.


De Jan Wildeboer, EMEA Evangelist, Red Hat


L’influence de l’intelligence artificielle est radicale sur l’ensemble des secteurs d’activité et sur la société dans son ensemble, même si elle n’en est pas encore au stade de singularité technologique ; cette évolution a débuté au moment de l’apparition de modèles d’IA de grande taille, aussi appelés « modèles de fondation ».

Pour entraîner ces modèles, il faut s’appuyer sur des volumes considérables de données et des datacenters puissants, auxquels n’accèdent en général que les très grands acteurs sur le marché. En parallèle, il est relativement aisé d’adapter les modèles de fondation selon les besoins de l’entreprise, et ainsi de réduire le coût initial imputé à l’entraînement des modèles et de dynamiser la création de valeur.

Une approche open source, qui arrive comme une position de contrepoint, permet d’éviter une situation dans laquelle quelques acteurs auraient le monopole, notamment grâce à la transparence, l’innovation et la sécurité des technologies ouvertes.

Transparence et confiance

L’AI Alliance, composée notamment de IBM, Intel, Red Hat et Meta, travaille à l’amélioration de la transparence de l’IA en prônant l’ouverture de la connaissance et au transfert des technologies ; cela contribue aussi à renforcer la confiance des entreprises et de la société dans tout ce que cette technologie apporte comme potentiels. En parallèle, l’Open Source Initiative (OSI) se consacre à créer une définition de travail commune.

Il n’existe pas encore de consensus sur la définition d’une IA ouverte, même si l’IA à tout à gagner à adopter des concepts-clés issus du monde de l’open source. Les développeurs qui utilisent des lignes de code source ouvertes peuvent mieux comprendre et contrôler le fonctionnement des algorithmes d’IA et la façon dont sont exploitées les sources, renforçant ainsi la confiance dans cette technologie. Pour les secteurs comme la santé et la finance, dans lesquels la confiance via la transparence est essentielle, cet aspect est particulièrement important.

Collaborer pour innover

Les développeurs contribuent à stimuler le développement et l’itération de nouveaux modèles en s’appuyant sur les architectures et les cadres déjà existants, et en ayant recours à des modèles d’IA open sources. Les entreprises n’ont ainsi plus besoin de tout réinventer à chaque fois pour réussir à mettre en place des applications innovantes.

Avec un nombre croissant d’acteurs sont plus nombreux ayant accès aux matériaux bruts, ils peuvent davantage approfondir leurs idées et mettre en œuvre des projets véritablement créatifs. Dans le meilleur des cas, le logiciel open source devient la référence sur le marché, permettant aux entreprises de bâtir leurs produits sur les piles technologiques fournies par les meilleurs fournisseurs sur le marché. Tout le monde est ainsi en mesure d’en bénéficier en incorporant les améliorations apportées par les uns et les autres au sein de leur IA. Ce catalyseur profite à la compétition et à l’innovation, et par extension aux acteurs les plus modestes.

Le « travail à quatre yeux », principe de sécurité

Il est de plus en question des dangers liés à l’IA générative et de leur intensification en parallèle de l’essor de la technologie. Certains acteurs peuvent utiliser ces systèmes dans un but malveillant, comme répandre de fausses informations ou mener des activités frauduleuses en manipulant le discours, les images ou les vidéos. Une approche open source, qui peut aider les criminels à obtenir des informations sur le fonctionnement des algorithmes d’IA, pourrait-elle permettre de contrôler ces risques?

Il y a généralement des garde-fous ou des lignes directrices encadrant les systèmes ouverts et qui encouragent une utilisation responsable. Quand l’accès à un modèle d’IA se libère, n’importe qui peut modifier ces mesures de sécurité. Comme c’est le cas pour n’importe quelle technologie, il est possible de l’utiliser pour causer préjudice à d’autres personnes, aussi bien grâce aux systèmes ouverts que propriétaires.

Pourtant, le recours à l’open source et à la transparence devrait aider à rendre l’IA plus sécurisée. Beaucoup de personnes peuvent tester les logiciels ouverts et en corriger les éventuels problèmes. En outre, des entreprises, des développeurs et des chercheurs issus de différents secteurs d’activité peuvent travailler en collaboration sur ces solutions afin de minimiser les risques. Dans le même temps, la communauté qui se forme autour de la technologie a besoin de définir des grandes orientations et des mécanismes afin de promouvoir un développement éthique de l’IA.

Un accès ouvert est un gage de démocratisation

L’open source est un vecteur de démocratisation de l’intelligence artificielle, grâce à tous ses avantages inhérents qu’elle rend accessibles à tous, pour le bénéfice de tous. En tant que technologie de plus en plus prévalente, l’IA peut avoir un impact grandissant à l’avenir sur tous les domaines de la société, ce qui explique pourquoi il ne faut pas que seulement quelques individus en conservent le contrôle.
Une approche open source permet à des personnes issues de milieux socio-économiques extrêmement variés de participer au développement de cette technologie et de façonner ainsi une IA plus juste. Certains éléments poussent à ouvrir davantage les processus et les optimiser : l’intensification des pressions en matière de compétitivité sous l’influence de la mondialisation, le raccourcissement des cycles de vie des produits et la course à l’innovation. Pourtant, toutes les entreprises n’ont pas forcément les ressources financières et l’expertise interne suffisante pour entreprendre des développements révolutionnaires. Il leur faut donc collaborer avec des partenaires, des fournisseurs ou d’autres entreprises.

L’IA est une technologie incontestablement clé. Il faut que le système soit fonctionnel pour pouvoir développer des modèles d’IA viables, mais également permettre à un plus vaste panel d’utilisateurs d’accéder aux données d’entraînement et afin résoudre les problèmes éthiques urgents.
Sans faire en sorte que l’IA repose entièrement sur les principes de l’open source, il est conseillé de miser sur un partage entre des modèles pré-entraînés au sein de la communauté et des restrictions d’accès aux données d’entraînement : cela représente une solution alternative aux approches propriétaires.

L’IA doit être pensée comme une intelligence d’essaim. Dans ce principe, les parties prenantes n’ont pas nécessairement à partager des informations sensibles quand elles apportent leurs connaissances à l’essaim. Cette métaphore d’’intelligence d’essaim se révèle très pertinente dans le contexte d’une expansion des modèles d’IA spécifiques à certains domaines.


À LIRE AUSSI :

À LIRE AUSSI :

À LIRE AUSSI :

Dans l'actualité

Verified by MonsterInsights