Quels ont été les articles qui ont attiré le regard de la rédaction ces derniers jours dans les domaines de l’open source, de l’IA et de Linux ? Résumé et liens pour vous permettre de lire ces articles en intégralité. Voici notre revue de presse hebdomadaire 100 % GoodTech. Elle est publiée chaque lundi et elle est gratuite : partagez-la !
Vous avez trouvé un article intéressant qui a échappé à la rédaction ? N’hésitez pas à nous contacter.
Les Échos : Pourquoi l’open source est devenu un enjeu majeur dans l’IA
Le qualificatif d’IA « open source » est sur toutes les lèvres, mais demeure très débattu dans la communauté. D’immenses enjeux financiers et concurrentiels sont sur le tapis.L’open source, ce mouvement qui a émergé dans les années 1990 parmi les chercheurs en informatique, s’est hissé sur le devant de la scène avec l’arrivée de l’intelligence artificielle (IA) générative. Il est même en passe de devenir un étendard du Vieux Continent.
Lire l’article en intégralité via ce lien.
BFM Business : Alexandre Zapolsky (LINAGORA) : « Pourquoi nous avons débranché LUCIE après 3 jours »
Alexandre Zapolsky, fondateur et président de LINAGORA, était l’invité de François Sorel dans Tech & Co, la quotidienne, ce lundi 17 février. Il s’est penché sur le robot conversationnel Lucie, les raisons pour lesquelles il a été suspendu au bout de trois jours, les retombées sur les réseaux sociaux ainsi qu’un éventuel relancement du service.
Lire l’article et voir la vidéo complète via ce lien.
Le sujet vous intéresse ? Lisez notre article :
Exclusif : Michel-Marie MAUDET s’exprime sur l’IA LUCIE (Vidéo)
Journal du Net : IA et retour sur investissement : pourquoi l’open source accélère la valeur pour les entreprises
Alors que le déploiement de l’IA d’entreprise s’accélère en 2025, une étude révèle que les entreprises européennes privilégient une vision à long terme, misant notamment sur l’IA open source pour optimiser leurs investissements et stimuler l’innovation. (…) L’IA open source présente de nombreux avantages. Au niveau de l’industrie, une infrastructure ouverte est essentielle pour favoriser une utilisation responsable de l’IA. L’accent mis sur la collaboration permet aux développeurs de s’appuyer sur les contributions des autres, de démocratiser les connaissances et de rectifier les préjugés et les inexactitudes. Ce résultat est obtenu non seulement par le partage du code, mais aussi par l’apport de divers ensembles de données qui optimisent la précision, la fiabilité et les résultats. Il s’agit d’un élément essentiel de la diversité et de l’équité au sein du secteur, qui rend la connaissance et le progrès accessibles au plus grand nombre plutôt qu’à une élite restreinte.
Lire l’article en intégralité via ce lien.
ZDNet : Elon Musk prône l’IA open source, alors pourquoi son modèle Grok reste-t-il fermé ?
Alors qu’il tente une prise de contrôle hostile sur OpenAI, au nom de l’humanité, Elon Musk ne s’est jusqu’à présent pas engagé à ouvrir le code source des propres modèles d’IA. (…) Cette annonce intervient alors qu’Elon Musk a récemment lancé une offre hostile sur OpenAI. Dans une déclaration officielle, le milliardaire a justifié cette initiative en affirmant : « Il est temps pour OpenAI de redevenir la force open source et axée sur la sécurité qu’elle était autrefois. » (…) Lorsque xAI a rendu Grok 1 open source en mars 2024, quatre mois après son lancement initial en novembre 2023. Pourtant, Grok 1.5, sorti le même mois, ainsi que Grok 2 en août et désormais Grok 3, n’ont pas suivi le même chemin. Si xAI devait conserver le même rythme, Grok 1.5 et Grok 2 auraient théoriquement pu être rendus open source depuis longtemps.
Lire l’article en intégralité via ce lien.
ActuIA : AI2 lance Tülu 3 405B : une avancée vers un nouveau standard de l’IA open source
Après avoir publié en décembre dernier sa famille de modèles OLMO 2, l’Allen Institute for Artificial Intelligence (AI2) poursuit son engagement envers l’open source avec le lancement de Tülu 3 405B. Basé sur Llama 3.1, exploitant le cadre d’apprentissage par renforcement à partir de récompenses vérifiables (RLVR) d’AI2, ce nouveau modèle atteint des performances compétitives ou supérieures à celles de DeepSeek V3 (sur lequel est basé DeepSeek R1) et GPT-4o, surpassant également les modèles post-entraînés précédents de même taille, comme Llama 3.1 405B Instruct et Hermes 3 405B de Nous Research.
Lire l’article en intégralité via ce lien.
Business AM : DeepSeek renforce la transparence grâce à un code source ouvert
DeepSeek ouvrira cinq dépôts de code la semaine prochaine. Cette initiative s’inscrit dans le cadre de l’engagement de l’entreprise en faveur de la technologie open-source et du progrès collectif dans le domaine de l’IA. L’approche open-source a contribué au succès récent de DeepSeek, y compris ses modèles V3 et R1.
Lire l’article en intégralité via ce lien.
C’est quoi Perplexity AI, le moteur de recherche et agent IA dont tout le monde parle ?
Boursier.com : DeepSeek, la plus open source des IA ?
La startup chinoise de l’IA DeepSeek prévoit de publier des codes et des données clés au public à partir de la semaine prochaine, une étape inhabituelle pour partager davantage de sa technologie de base que des concurrents tels qu’OpenAI, indique Bloomberg. « Nous sommes une petite équipe qui explore l’AGI. À partir de la semaine prochaine, nous ouvrirons cinq dépôts, partageant nos progrès modestes mais sincères en toute transparence », a indiqué DeepSeek sur son compte X. Le référentiel de code et de données que le groupe prévoit de dévoiler est un espace de stockage numérique où sont organisées et gérées les données et les ressources nécessaires à la formation, à l’exécution et à l’évaluation des modèles d’IA, détaille Bloomberg.
Lire l’article en intégralité via ce lien. Le sujet vous intéresse ? Lisez notre article :
Open-R1 : voici un clone vraiment open source du modèle de DeepSeek
Datanews : Mo Duffy, Red Hat : ‘Nous essayons d’éliminer les obstacles à l’utilisation des modèles d’IA’
« Red Hat est adepte d’une philosophie de cloud hybride ouvert, et nous essayons de l’appliquer également à l’IA. Il est normal de vouloir que son modèle d’IA tourne à proximité de l’endroit où sont stockées les données. Et les données peuvent se trouver en périphérie. Ou sur site, ou dans votre cloud hybride. Et vous voulez être en mesure de déplacer ces modèles chaque fois que c’est nécessaire, si possible sans que cela vous coûte trop cher. Ils ne doivent donc pas être trop lourds, car plus le modèle est lourd, plus il est coûteux d’y travailler. Je pense qu’il est préférable de disposer d’un groupe de petits modèles spécialisés, plutôt que d’un modèle gigantesque dont l’hébergement est coûteux et qui risque de ne pas être efficace pour l’usage que vous souhaitez en faire. »
Lire l’article en intégralité via ce lien.
Yahoo! Actualités et 20Minutes : Alexandre Zapolsky, président de Linagora, revient sur le ratage Lucie Chat
Rencontré au Sommet de l’IA, qui s’est tenu les 10 et 11 février à Paris, le président de Linagora, Alexandre Zapolsky, assume le bad buzz, tout en expliquant que ce projet de recherche a justement besoin de la contribution des internautes pour affiner ses résultats. La prochaine fois que Lucie Chat pointera le bout de son museau, « on sera très clairs sur les attentes », promet-il.
Lire l’article en intégralité via ce lien.


