skip to content

Recherche

Syspirit

#DeepWiki-Open : Générer des wikis automatiques pour vos repos Git !

DeepWiki-Open transforme n'importe quel repo Git en wiki interactif grâce à l'IA — et ça tourne en local.

6 minutes de lecture
Auteur : Karl Certa
Couverture DeepWiki-Open

Comprendre un nouveau projet GitHub en quelques minutes grâce à l’IA, sans fouiller des heures dans du code mal documenté ? C’est ce que propose DeepWiki-Open. En scrollant sur X, je suis tombé sur cet outil et en creusant un peu le sujet, j’ai découvert une histoire assez intéressante que je voulais partager.

D’où ça sort ?


Cognition AI et Devin

Derrière ce projet, il y a d’abord Cognition AI, une startup californienne fondée en 2023. En mars 2024, ils sortent Devin, présenté comme “le premier ingénieur logiciel IA totalement autonome”. Le truc fait le buzz, les investisseurs affluent, et aujourd’hui Cognition AI est valorisée à 10,2 milliards de dollars. Parmi leurs clients : Goldman Sachs, Dell, Cisco, Palantir…

Bref, c’est du lourd.

Mai 2025 : DeepWiki, le “Wikipédia du code”

Fort de ce succès, Cognition lance en mai 2025 un nouvel outil : DeepWiki.

Le concept est simple mais puissant : vous prenez n’importe quelle URL GitHub, vous remplacez github.com par deepwiki.com, et vous obtenez un wiki complet généré par l’IA avec :

  • Une documentation structurée du projet
  • Des diagrammes d’architecture automatiques
  • Un assistant IA pour poser des questions sur le code

Pour lancer le service, Cognition a mis les moyens : ils ont indexé plus de 50 000 repositories parmi les plus populaires de GitHub, analysé 4 milliards de lignes de code, et dépensé environ 300 000 dollars en puissance de calcul juste pour cette phase d’indexation.

Tweet Cognition Labs

L’objectif affiché ? Créer un “Wikipédia du code” pour démocratiser la compréhension des projets open-source.

Le hic ? C’est un service SaaS. Gratuit pour les repos publics, mais payant dès que vous voulez analyser des repos privés (il faut un compte Devin). Et surtout, vos données passent par leurs serveurs.

L’alternative open-source : DeepWiki-Open

C’est là qu’entre en scène AsyncFuncAI, une petite équipe qui s’est dit : “Le concept est génial, pourquoi ne pas en faire une version open-source ?”

Dans leur README, ils décrivent le projet comme “my own implementation attempt of DeepWiki” — leur propre tentative d’implémentation.

Et le résultat est plutôt réussi : plus de 12 800 stars sur GitHub, une communauté active (Discord, contributions régulières), et surtout la possibilité de tout faire tourner chez soi.

Les vraies différences avec le DeepWiki de Cognition :

  • Vous pouvez self-host la solution
  • Vous utilisez vos propres clés API (OpenAI, Google, etc.)
  • Ou mieux : vous pouvez tourner 100% en local avec Ollama — gratuit, privé, aucune donnée qui sort de votre machine

C’est une belle illustration de ce que l’écosystème open-source sait faire : prendre un concept innovant et le rendre accessible à tous.

DeepWiki-Open-Interface

DeepWiki-Open, c’est quoi concrètement ?


En résumé

Un générateur de documentation automatique pour vos repos Git, propulsé par l’IA, avec une interface de chat intégrée pour poser des questions sur le code.

Comment ça fonctionne

Le workflow est assez simple :

  1. Vous rentrez l’URL d’un repository (GitHub, GitLab, ou Bitbucket)
  2. DeepWiki-Open clone le repo
  3. L’IA analyse le code et crée une sorte d’index intelligent qui lui permet de comprendre comment chaque partie du projet est connectée aux autres.
  4. Elle détermine automatiquement la structure optimale du wiki
  5. Chaque page est générée avec du contexte récupéré via RAG
  6. Vous pouvez ensuite chatter avec le code !

Les fonctionnalités principales

  • Documentation instantanée : transforme n’importe quel repo en wiki en quelques minutes
  • Support des repos privés : via des tokens d’accès personnels
  • Diagrammes automatiques : génération de diagrammes Mermaid pour visualiser l’architecture et le flux de données
  • Fonction “Ask” : un chat pour poser des questions sur le code et obtenir des réponses contextuelles
  • Mode “Deep Research” : pour les analyses plus poussées, avec plusieurs itérations de recherche automatiques

Les providers LLM supportés

DeepWiki-Open est flexible côté modèles IA :

ProviderModèles
GoogleGemini 2.5 Flash, Pro, etc.
OpenAIGPT-4o, GPT-5, etc.
OpenRouterAccès à Claude, Llama, Mistral et plein d’autres
Azure OpenAIPour les environnements entreprise
OllamaModèles locaux (llama3, etc.) — 100% offline

La possibilité d’utiliser Ollama est vraiment intéressante pour ceux qui veulent garder le contrôle total sur leurs données.

Installation


Prérequis

  • Docker & Docker Compose
  • Au choix : une clé API (Google, OpenAI…) OU Ollama installé en local

Option 1 : Avec des APIs cloud

C’est la méthode la plus rapide pour tester. Vous avez juste besoin d’une clé API Google ou OpenAI.

# Cloner le repo
git clone https://github.com/AsyncFuncAI/deepwiki-open.git
cd deepwiki-open
 
# Créer le fichier .env
echo "GOOGLE_API_KEY=votre_clé_google" > .env
echo "OPENAI_API_KEY=votre_clé_openai" >> .env
 
# Lancer avec Docker Compose
docker-compose up -d

Et voilà, l’interface est accessible sur http://localhost:3000 ! 🎉

Option 2 : 100% local avec Ollama

Si vous voulez que rien ne sorte de votre machine :

# Configurer pour Ollama
echo "DEEPWIKI_EMBEDDER_TYPE=ollama" > .env
echo "OLLAMA_HOST=http://localhost:11434" >> .env
 
# Utiliser l'image Docker avec Ollama intégré
docker build -f Dockerfile-ollama-local -t deepwiki-ollama .
docker run -p 8001:8001 -p 3000:3000 \
  -v ~/.adalflow:/root/.adalflow \
  deepwiki-ollama

DeepWiki-Open-Ollama Source

Pourquoi utiliser DeepWiki-Open ?


  • Comprendre un nouveau projet avant de le déployer ou d’y contribuer — fini les heures à fouiller dans du code mal documenté
  • Documenter ses propres projets sans se prendre la tête à rédiger manuellement
  • Onboarder quelqu’un sur un codebase existant — vous lui partagez le wiki généré et c’est parti
  • Explorer des projets open-source pour apprendre comment ils sont structurés
  • Analyser des repos privés/sensibles en local, sans envoyer votre code sur des serveurs tiers

Les limites


Soyons honnêtes, l’outil n’est pas parfait :

  • Temps de génération : sur les gros repos, ça peut prendre plusieurs minutes voire plus
  • Qualité variable : la doc générée dépend beaucoup de la qualité du code source — code propre = meilleure doc
  • Coût en tokens : si vous utilisez des APIs cloud sur de gros projets, la facture peut grimper
  • Ressources locales : avec Ollama, il faut une machine correcte (GPU recommandé)
  • Pas infaillible : l’IA peut parfois mal interpréter des logiques complexes. Une relecture humaine reste pertinente pour les cas critiques

Conclusion


DeepWiki-Open répond à un vrai problème : la doc manquante ou obsolète dans les projets. Le fait de pouvoir tout faire tourner en local avec Ollama est un vrai plus. Le projet est actif, la communauté grandit, c’est clairement un outil à surveiller voire à implémenter chez vous ou même dans votre entreprise si elle est “IA-Friendly” !

Si vous cherchez une solution pour mieux comprendre les projets sur lesquels vous travaillez ou que vous découvrez, je vous recommande d’y jeter un œil !

Liens utiles :

À très vite pour un prochain article ! 🚀