Compagnon IA
Sujet avancé : Accompagnement musical généré par l'IA en temps réel
Aperçu
Le Compagnon IA écoute votre jeu et génère des parties musicales complémentaires en temps réel en utilisant des modèles d'apprentissage automatique.
Fonctionnalités
- Séquençage multi-pistes — Génère basse, accords, pads, mélodie et batterie
- Sensible au contexte — s'adapte à votre tonalité, tempo et style de jeu
- En temps réel — inférence à faible latence avec CoreML
- Facultatif — activez-le uniquement lorsqu'il est nécessaire, sans affecter le routage principal
Fonctionnement
- L'IA écoute le flux MIDI entrant
- Analyse le contexte musical (tonalité, accords, rythme)
- Génère des parties complémentaires
- Sortie vers les destinations désignées
Activation du Compagnon IA
Paramètres → Avancé → Compagnon IA
- Activer — Active le traitement IA
- Modèle — Sélectionnez le modèle entraîné
- Destinations — Routez la sortie IA
- Réactivité — Compromis entre latence et qualité
Entraînement (avancé)
Les modèles IA sont entraînés avec PyTorch et convertis en CoreML. Consultez le dépôt du projet pour des détails techniques :
- Documentation sur la conception de l'IA (dans le dépôt)
- Documentation sur le schéma d'entraînement (dans le dépôt)
Performances
Le Compagnon IA fonctionne sur le Neural Engine (Apple Silicon) ou GPU :
- Latence : 10-50 ms selon la taille du modèle
- Utilisation CPU : Minimale (accélération matérielle dédiée)
- Mémoire : ~200 Mo pour les modèles
Étapes suivantes
- Modèle de routage NeuroScript — Intégrez les signaux IA sans affecter le routage
- Optimisation des performances — Minimisez la latence IA
