par Amadou LAM | Mar 17, 2025 | Open source
La définition de l’Open Source
Les 10 principes de l’opensource selon OSI (Open Source Initiative)
L’OSI organisation à but non lucrative qui assure la promotion et la protection des logiciels opensource et qui fait office d’autorité de référence a définit 10 critères pour qu’un logiciel soit conforme à la philosophie open source :
1 – Redistribution gratuite
La licence n’interdit à aucun individu de commercialiser ou de distribuer le logiciel en tant qu’élément d’une distribution logicielle globale intégrant des programmes issus de diverses sources. Pour une telle vente, aucun droit de redevance ou autre coût n’est imposé par la licence.
2 – Code source
Le programme doit comporter le code source et autoriser sa diffusion en tant que code source et version compilée. Quand un produit n’est pas fourni avec le code source, il doit y avoir une méthode claire pour obtenir ce code moyennant un prix de reproduction abordable, idéalement par téléchargement gratuit en ligne. Un programmeur devrait privilégier l’utilisation du code source pour effectuer des modifications sur le programme. Il est défendu de masquer délibérément le code source. Les résultats intermédiaires comme ceux produits par un préprocesseur ou un traducteur sont proscrits.
3- Œuvres dérivées
La licence doit permettre les modifications et les œuvres dérivées, et doit autoriser leur distribution selon les mêmes conditions que la licence du logiciel original.
4 – Intégrité du code source de l’auteur
La licence peut limiter la diffusion du code source sous une forme modifiée uniquement si elle permet aussi la distribution de « fichiers correctifs » accompagnant le code source pour modifier le programme lors de sa compilation. La licence doit clairement permettre la diffusion de logiciels élaborés à partir du code source modifié. Elle peut imposer que les œuvres dérivées aient un nom ou une version distincte de celle du logiciel initial.
5 – Aucune discrimination à l’égard des personnes ou des groupes
La licence ne doit pas faire de discrimination à l’encontre de toute personne ou groupe de personnes.
6 – Aucune discrimination selon les domaines d’activité
La licence ne doit imposer aucune restriction quant à l’utilisation du logiciel dans un secteur d’activité précis. Par exemple, elle ne peut pas empêcher son utilisation dans une entreprise ou pour des recherches en génétique.
7 – Distribution de licence
Les droits attachés au programme doivent s’appliquer à tous ceux à qui le programme est redistribué sans qu’il soit nécessaire que ces parties exécutent une licence supplémentaire.
8 – La licence ne doit pas être spécifique à un produit
Les droits associés au programme ne doivent pas être conditionnés par son inclusion dans une distribution logicielle spécifique. Si le programme est tiré de cette distribution et utilisé ou diffusé selon les conditions de licence du programme, toutes les parties auxquelles le programme est redistribué devraient bénéficier des mêmes droits que ceux accordés avec la distribution originale du logiciel.
9 – La licence ne doit pas restreindre les autres logiciels
La licence ne doit pas imposer de limitations sur les autres logiciels distribués conjointement avec le logiciel sous licence. Par exemple, la licence ne doit pas exiger que tous les autres programmes diffusés sur le même support soient des logiciels open source.
10 – La licence doit être neutre sur le plan technologique
Aucune disposition de la licence ne peut être fondée sur une technologie ou un style d’interface particulier.
Source : https://opensource.org/osd
par Amadou LAM | Fév 12, 2025 | Evènement
Le CES 2025 de Las Vegas : Les tendances tech qui vont façonner l’avenir
Le CES 2025 (Consumer Electronics Show), le plus grand salon technologique au monde, s’est tenu à Las Vegas du 7 au 10 janvier 2025. Le salon a attiré plus de 140 000 participants, venus découvrir les dernières innovations. Cet événement incontournable a rassemblé des milliers d’exposants, des startups innovantes et des géants de la tech pour dévoiler les dernières avancées technologiques. Parmi les participants, naturelement Dioki, l’innovation est dans l’adn, était présente pour réaliser sa veille technologique et identifier les tendances émergentes. Découvrez les moments forts et les tendances marquantes de cette édition.
Les principales tendances tech observées au CES 2025
1. L’intelligence artificielle (IA) omniprésente
L’IA a une nouvelle fois volé la vedette au CES 2025. Cette année, les applications de l’intelligence artificielle se sont étendues à des secteurs variés : santé, éducation, mobilité et même création artistique. Les assistants personnels intelligents ont atteint un niveau de sophistication inédit, capables d’anticiper les besoins des utilisateurs avec une précision impressionnante. Les entreprises ont également mis en avant des solutions d’IA éthique, répondant aux préoccupations croissantes concernant la confidentialité des données et les biais algorithmiques.
2. Réalité augmentée (AR) et virtuelle (VR) : Vers une immersion totale
Les casques AR et VR ont continué à évoluer, offrant des expériences immersives plus réalistes et accessibles. Les applications professionnelles, notamment dans la formation et la collaboration à distance, ont particulièrement retenu l’attention. Les démonstrations de métaverses interconnectés ont montré comment ces technologies pourraient transformer nos interactions sociales et professionnelles.
3. Mobilité durable et véhicules autonomes
Le secteur des transports a été l’un des points forts du CES 2025. Les véhicules électriques et autonomes ont dominé les présentations, avec des modèles plus performants et des batteries à autonomie étendue. Les solutions de mobilité urbaine, comme les vélos et trottinettes électriques connectés, ont également été mises en avant, répondant aux enjeux écologiques et de congestion des villes.
4. Santé connectée et personnalisée
Les dispositifs de santé connectée ont connu une avancée majeure. Les wearables, capables de monitorer en temps réel des indicateurs de santé complexes comme la glycémie ou la pression artérielle, ont été particulièrement plébiscités. Les solutions de télémédecine, intégrant l’IA pour des diagnostics rapides et précis, ont également suscité un vif intérêt.
5. Énergie verte et smart cities
Les innovations en matière d’énergie durable ont été nombreuses au CES 2025. Des solutions de stockage d’énergie plus efficaces et des systèmes de gestion intelligente de l’énergie pour les foyers et les villes ont été présentés. Les projets de smart cities, intégrant des capteurs IoT et des plateformes de données pour optimiser les ressources, ont également attiré l’attention des visiteurs
Dioki au CES 2025 : pour une veille technologique stratégique
Parmi les nombreux acteurs présents au CES 2025, Dioki, une entreprise focalisée sur l’innovation, a fait le déplacement pour réaliser sa veille technologique. Spécialisée dans l’identification et l’intégration des technologies émergentes, Dioki a profité de cet événement pour observer les dernières avancées, nouer des partenariats stratégiques et explorer des opportunités de développement.
« Le CES est un événement incontournable pour rester à la pointe de l’innovation. Cette année, nous avons été impressionnés par les progrès réalisés dans des domaines comme l’IA, la mobilité durable et la santé connectée. Ces tendances vont profondément influencer notre stratégie et nos projets futurs », a déclaré un représentant de Dioki.
Pourquoi le CES 2025 était-il incontournable des événements tech ?
Le CES de Las Vegas reste le rendez-vous mondial des passionnés de technologie. Avec des innovations qui touchent tous les aspects de notre vie quotidienne, cet événement offre un aperçu unique de ce que l’avenir nous réserve. Pour les entreprises comme Dioki, c’est une opportunité de se positionner à l’avant-garde de l’innovation et de préparer l’adoption des technologies de demain.
Conclusion
Le CES 2025 a une nouvelle fois confirmé son statut de vitrine mondiale des technologies de demain. Avec des tendances marquantes comme l’IA omniprésente, la mobilité durable et la santé connectée, cette édition a offert un aperçu passionnant de l’avenir. Pour des entreprises innovantes comme Dioki, cet événement est une occasion unique de se projeter dans l’ère numérique et de préparer l’adoption des technologies qui façonneront notre quotidien.
Rendez-vous en 2026 pour la prochaine édition du CES, où l’innovation continuera de repousser les limites du possible.
par Amadou LAM | Fév 8, 2025 | Intelligence artificielle
Comparaison des IA génératives : ChatGPT, Mistral AI et DeepSeek
L’intelligence artificielle générative (IA) a pris une place prépondérante dans le paysage technologique actuel, avec plusieurs acteurs majeurs se distinguant par leurs innovations. Parmi eux, ChatGPT, Mistral AI et DeepSeek se démarquent. Voici une comparaison détaillée de ces trois technologies, accompagnée d’un tableau comparatif et d’une infographie.
ChatGPT : Le pionnier américain de IA
ChatGPT, développé par OpenAI, est souvent considéré comme le pionnier de l’IA générative. Il a ouvert la voie à une adoption massive de cette technologie, notamment grâce à sa capacité à générer du texte de manière cohérente et contextuellement pertinente. ChatGPT repose sur des infrastructures coûteuses, notamment les puces de Nvidia, ce qui en fait une solution onéreuse. La concurrence accrue, notamment de DeepSeek, a mis en lumière les vulnérabilités de ce modèle économique.
Points forts :
-
- Leader du marché : ChatGPT est largement reconnu et utilisé dans le monde entier.
- Performance : Capacité à générer du texte cohérent et contextuellement pertinent.
- Innovation : Ouvre la voie à de nombreuses applications de l’IA générative.
Points faibles :
-
- Coût élevé : Repose sur des infrastructures coûteuses.
- Concurrence : La montée en puissance de concurrents comme DeepSeek met en lumière ses vulnérabilités.
Mistral AI : L’émergence européenne
Mistral AI, bien que moins médiatisé que ses concurrents chinois et américains, se positionne comme une alternative prometteuse. Basé en Europe, Mistral AI mise sur une approche centrée sur l’innovation et la qualité. Le modèle de Mistral AI se distingue par sa capacité à intégrer des fonctionnalités avancées tout en maintenant un coût compétitif. Cette approche pourrait séduire les entreprises cherchant à diversifier leurs sources d’IA générative, tout en bénéficiant d’une technologie de pointe.
Points forts :
-
- Innovation : Capacité à intégrer des fonctionnalités avancées.
- Coût compétitif : Offre une alternative économique aux solutions plus coûteuses.
- Diversification : Permet aux entreprises de diversifier leurs sources d’IA générative.
Points faibles :
- Moins connu : Moins médiatisé que ses concurrents chinois et américains.
- Adoption : Encore en phase d’adoption, ce qui peut limiter sa portée actuelle.
DeepSeek : L’innovation chinoise
DeepSeek, une startup chinoise, a récemment fait sensation avec son modèle d’IA générative, R1. Ce modèle se distingue par sa capacité à offrir des performances équivalentes à celles des leaders du marché, mais à un coût nettement inférieur. DeepSeek utilise des semi-conducteurs moins avancés, ce qui lui permet de contourner certaines restrictions à l’exportation imposées par les États-Unis. Cette approche économique pourrait redéfinir les standards de l’industrie en rendant l’IA générative plus accessible.
Points forts :
-
- Coût réduit : Offre des performances équivalentes à un coût nettement inférieur.
- Accessibilité : Rend l’IA générative plus accessible.
- Innovation : Utilise des semi-conducteurs moins avancés pour contourner les restrictions.
Points faibles :
-
- Restrictions : Fait face à des restrictions à l’exportation imposées par les États-Unis.
- Concurrence : Doit faire face à la concurrence des géants américains et européens.
C’est quoi un modèle de language (LLM) ?
Un LLM (Large Language Model, ou Modèle de Langage à Grande Échelle) est un type de modèle d’intelligence artificielle (IA) conçu pour comprendre, générer et manipuler du langage humain. Ces modèles sont entraînés sur d’énormes quantités de données textuelles (livres, articles, sites web, etc.) et utilisent des techniques avancées pour prédire et produire du texte de manière cohérente et contextuellement pertinente.
Fonctionnement d’un LLM
- Architecture de base :
- Les LLM reposent sur l’architecture Transformer, introduite en 2017 par Google dans le papier « Attention is All You Need ».
- Les Transformers utilisent des mécanismes d’attention pour capturer les relations entre les mots dans un texte, même lorsqu’ils sont éloignés les uns des autres.
- Entraînement :
- Les LLM sont entraînés sur des corpus de texte massifs (parfois des milliards de mots).
- Pendant l’entraînement, le modèle apprend à prédire le mot suivant dans une séquence (par exemple, compléter une phrase).
- Ce processus permet au modèle de comprendre la grammaire, le contexte, les nuances du langage et même certaines connaissances générales.
- Génération de texte :
- Une fois entraîné, le modèle peut générer du texte en réponse à une entrée (prompt).
- Il utilise les probabilités pour choisir les mots les plus appropriés en fonction du contexte.
Caractéristiques des LLM
-
- Polyvalence : Ils peuvent accomplir une grande variété de tâches, comme répondre à des questions, traduire des langues, rédiger des textes, résumer des documents, etc.
- Compréhension contextuelle : Ils sont capables de maintenir le contexte sur plusieurs phrases ou paragraphes.
- Adaptabilité : Ils peuvent être affinés (fine-tuning) pour des tâches spécifiques (par exemple, la médecine, le droit, la programmation).
Exemples de LLM populaires
- GPT (OpenAI) :
- GPT-3, GPT-4 : Modèles généralistes très performants pour la génération de texte et la conversation.
- Mistral (Mistral AI) :
- Mistral 7B, Mixtral 8x7B : Modèles légers et efficaces, souvent open-source.
- BERT (Google) :
- Plus orienté vers la compréhension du langage (par exemple, pour les moteurs de recherche).
- LLaMA (Meta) :
- Modèles open-source conçus pour la recherche et les applications locales.
- DeepSeek (DeepSeek AI) :
- Modèles spécialisés dans la recherche d’informations et l’analyse de données.
Applications des LLM
-
- Assistants virtuels : ChatGPT, Google Assistant, etc.
- Traduction automatique : Google Translate, DeepL.
- Rédaction de contenu : Articles, scripts, poèmes, etc.
- Support client : Chatbots pour répondre aux questions des utilisateurs.
- Programmation : Aide à la génération de code (GitHub Copilot).
- Éducation : Tutoriels, explications, résumés de cours.
Limites des LLM
- Hallucinations : Les LLM peuvent générer des informations incorrectes ou inventées.
- Biais : Ils peuvent reproduire les biais présents dans les données d’entraînement.
- Manque de compréhension profonde : Ils ne « comprennent » pas vraiment le texte, mais imitent des modèles statistiques.
- Coût et ressources : L’entraînement et l’utilisation des LLM nécessitent d’énormes ressources informatiques.
En résumé, un LLM est un outil puissant pour manipuler le langage humain, mais il reste limité par sa nature statistique et dépend fortement de la qualité des données d’entraînement.
Comparons les LLM de ChatGPT, Mistral et DeepSeek
Les modèles de langage (LLM) comme ChatGPT, Mistral et DeepSeek partagent des similitudes dans leur fonctionnement général, mais ils diffèrent par leur architecture, leurs objectifs, leurs performances et leurs cas d’utilisation. Voici une comparaison détaillée :
1. ChatGPT (OpenAI)
- Développeur : OpenAI
- Modèle phare : GPT-4 (ou GPT-3.5 pour les versions gratuites)
- Architecture : Basée sur le Transformer, avec des milliards de paramètres (175 milliards pour GPT-3, bien plus pour GPT-4).
- Objectif principal : Génération de texte conversationnel, compréhension contextuelle et polyvalence.
- Points forts :
- Excellente compréhension du contexte et capacité à maintenir des conversations fluides.
- Très polyvalent : peut répondre à des questions, écrire du code, rédiger des textes créatifs, etc.
- Large base d’utilisateurs et intégrations (via l’API OpenAI).
- Limites :
- Coût élevé pour l’utilisation de l’API GPT-4.
- Parfois trop verbeux ou peu précis dans des tâches spécialisées.
- Nécessite beaucoup de ressources pour fonctionner.
2. Mistral (Mistral AI)
- Développeur : Mistral AI (start-up française)
- Modèle phare : Mistral 7B, Mixtral 8x7B (modèle sparse MoE – Mixture of Experts)
- Architecture : Basée sur le Transformer, mais avec une approche innovante comme les modèles MoE pour améliorer l’efficacité.
- Objectif principal : Performance et efficacité, en particulier pour les applications locales et spécialisées.
- Points forts :
- Léger et efficace : conçu pour fonctionner avec moins de ressources que les grands modèles comme GPT-4.
- Open-source : certains modèles sont disponibles publiquement, ce qui permet une grande flexibilité pour les développeurs.
- Performances compétitives malgré une taille réduite (7 milliards de paramètres pour Mistral 7B).
- Limites :
- Moins polyvalent que GPT-4 pour des tâches très complexes ou créatives.
- Encore en développement, donc moins mature que ChatGPT en termes d’intégrations et de support.
3. DeepSeek (DeepSeek AI)
- Développeur : DeepSeek AI (entreprise chinoise)
- Modèle phare : DeepSeek-V3 (ou d’autres versions spécifiques à des domaines)
- Architecture : Basée sur le Transformer, avec des optimisations pour des cas d’utilisation spécifiques (recherche d’informations, analyse de données, etc.).
- Objectif principal : Recherche d’informations précises et analyse de données.
- Points forts :
- Très performant pour les tâches de recherche et d’analyse de données structurées.
- Conçu pour des applications professionnelles et industrielles.
- Souvent utilisé dans des domaines spécialisés comme la finance, la santé ou la logistique.
- Limites :
- Moins adapté pour des tâches créatives ou conversationnelles générales.
- Moins connu du grand public et moins intégré dans des applications grand public.
Comparaison résumée des IA
Critère |
ChatGPT |
Mistral |
DeepSeek |
Polyvalence |
Très polyvalent |
Modérément polyvalent |
Spécialisé (recherche, analyse) |
Performance |
Excellente (GPT-4) |
Compétitive (efficacité) |
Excellente dans son domaine |
Taille du modèle |
Très grand (175B+ paramètres) |
Léger (7B paramètres) |
Variable (optimisé pour des cas d’usage spécifiques) |
Coût |
Élevé (API payante) |
Faible (open-source) |
Variable (souvent professionnel) |
Cas d’utilisation |
Grand public, créativité |
Développeurs, applications locales |
Professionnel, industriel |
Conclusion
En résumé, ChatGPT reste le leader incontesté mais coûteux, Mistral AI émerge comme une alternative européenne prometteuse, et DeepSeek se distingue par son approche économique et disruptive. Chaque technologie a ses forces et ses faiblesses, et le choix entre elles dépendra des besoins spécifiques des utilisateurs et des contraintes budgétaires. L’avenir de l’IA générative semble prometteur, avec une compétition accrue qui pourrait bien conduire à des innovations encore plus impressionnantes.
par Amadou LAM | Mai 26, 2022 | Cybersécurité
Ivan Fratic, chercheur en sécurité de l’équipe Google’s Project Zero a mis au jour une chaîne de vulnérabilités de sécurité majeure sur la solution de visioconférence Zoom.
Cette faille de sécurité affecte le chat et permet d’exécuter un code sur un poste distant par le simple envoi d’un message et ce sans aucune interaction de l’utilisateur.
Une chaîne de six vulnérabilités sur Zoom
Ivan Fratric a décrit un total de six vulnérabilités. Deux de ces failles, dénommées CVE-2022-25235 et CVE-2022-25236, affectent le module open source XML parser Expat.
Les vulnérabilités spécifiques à Zoom sont liés à une analyse XML incorrecte (CVE-2022-22784), au déclassement des paquets de mise à jour (CVE-2022-22786), à une validation insuffisante du nom d’hôte (CVE-2022-22787) et à des cookies de session mal définis (CVE-2022-22785).
CVE-2022-22786 affecte Zoom Client for Meetings pour Windows et Zoom Rooms for Conference Room pour Windows. Les autres affectent Zoom Client for Meetings sur toutes les plateformes de bureau et mobiles.
Une attaque de type Man In a middle
L’attaque MitM est réalisé par l’envoi d’un message spécial ce qui avec une version Zoom datant de mi-2019 permet la connexion de clients au serveur Man In a middle.
Une fois en position de Man In a middle l’assaillant pourra remplacer n’importe lequel des domaines par le sien, agissant comme un proxy inverse et interceptant les communications
Exploitation du process de mise à jour du client
L’étape d’après c’est l’exécution du code malveillant. Etant donné que les clients Zoom interrogent périodiquement le point de terminaison de mise à jour du serveur Web de Zoom pour voir s’il y a quelque chose de nouveau à installer.
« Puisque l’attaquant est déjà en position de MitM, il peut, bien sûr, remplacer ces points de terminaison et servir des données arbitraires », selon le chercheur.
Le chercheur en sécurité a cependant rencontré un problème : Le client télécharge deux fichiers dans le cadre du processus de mise à jour et vérifie leur légitimité – le fichier « Installer.exe » doit être signé par « Zoom Video Communications, Inc. » pour commencer ; une fois installé, il vérifie le hachage du second fichier .cab.
Cependant, il s’avère que les attaquants peuvent contourner ces obstacles grâce à une attaque par rétrogradation.
« J’ai servi Installer.exe et .cab de la version 4.4 de Zoom (de mi-2019) », explique Ivan Fratic. « L’installateur de cette version est toujours correctement signé ; cependant, il n’effectue aucun contrôle de sécurité sur le fichier .cab. »
Mises à jour du client Zoom
Au total il a été signalé un total de six vulnérabilités de sécurité, dont quatre problèmes spécifiques à Zoom corrigés dans la version 5.10.4 du client Zoom :
CVE-2022-22784 (analyse XML incorrecte)
CVE-2022-22786 (déclassement du paquet de mise à jour),
CVE-2022-22787 (validation insuffisante du nom d'hôte),
CVE-2022-22785 (cookies de session incorrectement contraints).
Il y a malheureusement aussi un problème de chaîne d’approvisionnement de logiciels à l’œuvre : Les deux autres (CVE-2022-25235, CVE-2022-25236) affectent le parseur Expat, qui est open source et utilisé dans de nombreuses autres applications. Ils sont corrigés dans la version 2.4.5 d’Expat.
« Certaines ou toutes les parties de la chaîne sont probablement applicables à d’autres plateformes », a déclaré Ivan Fratric.
Ces vulnérabilités ont été découverte en février. Zoom a corrigé ses problèmes côté serveur le même mois, puis publié des mises à jour le 24 avril.