API REST construite avec FastAPI et intégration OpenAI pour les fonctionnalités d'intelligence artificielle.
# Créer l'environnement virtuel
python -m venv venv
source venv/bin/activate # Linux/Mac
# ou venv\Scripts\activate # Windows
# Installation des dépendances
pip install -r requirements.txt
# Configuration
cp .env.example .env
# Modifier .env avec vos clés API
# Démarrage du serveur
python main.py- FastAPI - Framework web moderne et rapide
- OpenAI API - Intelligence artificielle
- Pydantic - Validation des données
- Uvicorn - Serveur ASGI
- Python 3.11+ - Langage de programmation
├── main.py # Application FastAPI principale
├── requirements.txt # Dépendances Python
├── .env.example # Template de configuration
├── render.yaml # Configuration Render
└── Dockerfile # Image Docker
OPENAI_API_KEY=sk-... # Clé API OpenAI (obligatoire)
OPENAI_API_BASE=https://api.openai.com/v1
HUGGINGFACE_API_KEY=hf_... # Clé API HuggingFace (optionnel)
HOST=0.0.0.0
PORT=8000- OpenAI : gpt-4.1-mini, gpt-4.1-nano, gemini-2.5-flash
- HuggingFace : bigcode/starcoder
Génération de réponses IA génériques.
Explication détaillée du code.
Refactorisation du code.
Génération de code basée sur une description.
Détection de bugs potentiels.
Optimisation du code.
Documentation interactive Swagger UI.
- CORS configuré pour les domaines autorisés
- Validation des entrées avec Pydantic
- Gestion des erreurs centralisée
- Rate limiting (recommandé pour la production)
Le fichier render.yaml configure automatiquement le déploiement.
docker build -t ai-coding-assistant-backend .
docker run -p 8000:8000 \
-e OPENAI_API_KEY=votre_clé \
ai-coding-assistant-backenduvicorn main:app --host 0.0.0.0 --port 8000Les logs sont automatiquement générés par Uvicorn et FastAPI.
Endpoint / pour vérifier l'état du service.
- Temps de réponse API
- Utilisation des tokens OpenAI
- Taux d'erreur
uvicorn main:app --reload --log-level debugpython -m pytest tests/- Créer le modèle Pydantic
- Implémenter la fonction
- Ajouter la route FastAPI
- Documenter l'endpoint