Meta se prépare à faire concurrence aux leaders de l’intelligence artificielle générative, tels que OpenAI et Google’s DeepMind. Meta AI a récemment lancé son modèle LLaMA, équivalent au modèle de chatbot AI d’OpenAI GPT. Maintenant, Meta AI a annoncé son AudioCraft, qui peut générer de la musique à partir de texte et qui rivalise avec le MusicLM de Google.
C’est une ère dorée, car l’entreprise vient de commencer son parcours dans l’IA générative pour les utilisateurs généraux. La capacité de l’IA générative à créer des réponses basées sur du texte, des images générées ou des transcriptions audio en fonction des sollicitations ou des entrées de l’utilisateur est phénoménale. Cela serait très utile pour les musiciens et les ingénieurs du son, car cela permet aux artistes d’expérimenter leurs idées ou donne aux utilisateurs une longueur d’avance sur leurs projets.
Les artistes n’ont pas à se soucier des problèmes de droits d’auteur, car MusicGen a été formé sur de la musique appartenant à Meta et sous licence, permettant aux artistes de l’utiliser commercialement. Meta rend AudioCraft gratuit et disponible sur GitHub. Aujourd’hui, nous allons découvrir AudioCraft de Meta AI et comment vous pouvez l’utiliser. Sans plus tarder, entrons dans le vif du sujet.
Qu’est-ce que AudioCraft de Meta AI ?
C’est un modèle d’IA générative de texte à musique qui peut créer de la musique de haute qualité et réaliste. Pour cela, Meta AI utilise plusieurs modèles d’IA, dont MusicGen, AudioGen et EnCodec. MusicGen et AudioGen peuvent générer de la musique à partir de texte en utilisant le modèle de langage autoregressif unique (LM), tandis que EnCodec ajoute des effets audio ou sonores spécifiques. EnCodec utilise un réseau neuronal pour compresser l’audio et reconstruire le signal d’entrée. MusicGen est spécialement formé pour utiliser de la musique sous licence appartenant à Meta.
Le dernier modèle d’IA, AudioCraft, est un modèle AudioGen pré-entraîné formé sur des signaux audio bruts capable de générer des sons environnementaux et des effets sonores tels que des grincements de plancher et des aboiements de chien. Les trois modèles que nous avons discutés sont open source afin que quiconque puisse les exploiter, et à partir de là, les chercheurs et les praticiens peuvent former leurs propres modèles et créer plus de jeux de données qui peuvent contribuer à faire progresser le domaine de l’audio et de la musique générée par l’IA.
Aujourd’hui, nous partageons des détails sur AudioCraft, une famille de modèles d’IA générative qui vous permet de générer facilement de l’audio et de la musique de haute qualité à partir de texte.
— Meta Newsroom (@MetaNewsroom)
Meta AI vise à offrir des instruments standard tels que des synthétiseurs. Vous pouvez écouter de la musique générée par AudioGen et MusicGen ici, ainsi que des sollicitations, pour vous faire une idée de ce que cela donne. Comme d’autres éléments d’intelligence artificielle générative, Meta a formé AudioGen sur des effets sonores publics et génère des sons à partir de sollicitations textuelles. En revanche, le décodeur EnCodec permet une génération de musique de haute qualité avec moins d’artefacts.
Comment utiliser MusicGen de Meta AI
C’est un projet open source, donc n’importe qui peut déployer et utiliser MusicGen sur sa machine locale ou son serveur. Cependant, pour l’interface web, vous pouvez consulter Hugging Face.
- Visitez MusicGen sur Hugging Face.
- Vous verrez trois panneaux. Dans le premier panneau, vous avez une zone de texte pour écrire votre demande ou votre entrée.
- En option, il y a une option pour télécharger un fichier par glisser-déposer ou en parcourant l’audio. Vous pouvez également utiliser un microphone pour entrer la demande, qui sera transcrite.
- Après avoir écrit la demande, cliquez sur « Générer », puis l’audio sera généré et apparaîtra dans la boîte en haut à droite sous « Musique générée ».
- C’est tout.
Note:
Vous pouvez également déployer le code en cliquant sur « Dupliquer l’espace » pour apporter des ajustements selon vos préférences. Écoutez AudioGen et MusicGen Sample Audio ici.
En plus de cela, Meta AI travaille également sur un chatbot IA similaire à ChatGPT d’OpenAI ou à Google Bard. La société n’a pas partagé de calendrier officiel pour l’application, mais elle devrait être lancée dans les semaines à venir. Nous pouvons également nous attendre à davantage de technologies d’IA générative de la part d’entreprises telles qu’Apple, Samsung et X.
Les Personas de Metas AI le mois prochain
Meta a annoncé un nouveau groupe de produits responsable de l’IA générative. D’autres concurrents comme TikTok et Snapchat ont déjà commencé à mettre en œuvre l’AGI, donc l’entreprise se concentre sur la prochaine génération d’intégrations des médias sociaux.
Il est à la dernière étape de développement et Meta AI a développé des personas qui seront lancés dans les prochains mois. On s’attend à ce qu’ils soient intégrés aux produits de Meta tels qu’Instagram, Facebook, Messenger et WhatsApp. Apparemment, Instagram teste déjà certaines capacités d’IA dans leurs applications pour supprimer des objets des images dans les stories, générer des commentaires et d’autres fonctionnalités d’IA similaires.
Des rapports suggèrent également que Meta AI a déjà développé un chatbot capable de générer des réponses semblables à celles d’un être humain. Lors des tests, il a répondu dans le style d’Abraham Lincoln. Le fait de fidéliser les utilisateurs pourrait être un autre pas en avant, car l’entreprise a besoin d’aide pour fidéliser les utilisateurs. Nous avons testé le LLaMA et ses protections sont difficiles à contourner par rapport au GPT d’OpenAI. Cela signifie que si l’entreprise le lance, il aura une meilleure mise en œuvre et une manipulation affinée des demandes.
Le PDG de Meta, Mark Zuckerberg, a déclaré aux investisseurs le 26 juillet le déploiement d’un nouvel outil alimenté par l’IA. Il a également souligné l’importance de se concentrer sur les produits publicitaires basés sur l’IA et de veiller à ce que l’IA fidélise ses utilisateurs. La société a enregistré une croissance de revenus d’au moins 15% pendant deux trimestres consécutifs.