Transformation d'images 2D en sculptures 3D en temps réel, exécutée entièrement dans le navigateur via WebAssembly.
Contrairement aux applications IA classiques qui envoient vos photos sur un serveur API (AWS/GCP), NeuralDepth tourne localement sur votre machine.
- Privacy-First : Aucune donnée ne quitte votre navigateur.
- Low Latency : Pas de temps de requête réseau après le chargement initial du modèle.
- Cost Efficiency : Aucun coût de serveur GPU.
- Modèle :
Depth-Anything-Small(Hugging Face). - Format : Modèle converti en ONNX (Open Neural Network Exchange) et quantifié pour le web.
- Moteur d'Inférence : Transformers.js propulsé par ONNX Runtime Web et WebAssembly (WASM).
- Rendu : Utilisation de la Depth Map générée comme Displacement Map sur un mesh Three.js fortement subdivisé.
- AI Inference : @xenova/transformers
- Runtime : WebAssembly (WASM) / WebGL
- 3D : React Three Fiber
- Framework : React + Vite
# Cloner le projet
git clone https://github.com/hatornip/NeuralDepth.git
# Installer les dépendances
bun install
# Lancer l'application
bun run dev