Stable Beluga 2 : Le Modèle de Langage de Stability AI

Stable Beluga 2

Découvrez Stable Beluga 2, un modèle de langage avancé de Stability AI, conçu pour la génération de texte créatif et précis.

Visiter le Site
Stable Beluga 2 : Le Modèle de Langage de Stability AI

Stable Beluga 2: Un Modèle de Langage Révolutionnaire

Stable Beluga 2 est un modèle de langage auto-régressif développé par Stability AI, basé sur Llama2 70B. Ce modèle a été finement ajusté sur un ensemble de données de style Orca, offrant des capacités de génération de texte avancées. Dans cet article, nous allons explorer ses caractéristiques, son utilisation, et comment il se compare à d'autres modèles.

Description du Modèle

Stable Beluga 2 est conçu pour exceller dans la génération de texte. Il utilise des techniques de fine-tuning supervisé sur des ensembles de données spécifiques, ce qui lui permet de produire des réponses cohérentes et contextuellement appropriées.

Caractéristiques Principales

  • Type de Modèle: Modèle de langage auto-régressif
  • Langue: Anglais
  • Bibliothèque: HuggingFace Transformers
  • Licence: Licence communautaire non commerciale

Comment Utiliser Stable Beluga 2

Pour commencer à utiliser Stable Beluga 2, vous pouvez utiliser le code suivant :

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("stabilityai/StableBeluga2", use_fast=False)
model = AutoModelForCausalLM.from_pretrained("stabilityai/StableBeluga2", torch_dtype=torch.float16, low_cpu_mem_usage=True, device_map="auto")

system_prompt = "### System:\nYou are Stable Beluga, an AI that follows instructions extremely well. Help as much as you can. Remember, be safe, and don't do anything illegal.\n\n"
message = "Write me a poem please"
prompt = f"{system_prompt}### User: {message}\n\n### Assistant:\n"
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
output = model.generate(**inputs, do_sample=True, top_p=0.95, top_k=0, max_new_tokens=256)
print(tokenizer.decode(output[0], skip_special_tokens=True))

Format de Prompt

Pour interagir avec Stable Beluga 2, utilisez le format de prompt suivant :

### System: This is a system prompt, please behave and help the user.
### User: Your prompt here
### Assistant: The output of Stable Beluga 2

Considérations Éthiques et Limitations

Comme toute nouvelle technologie, Stable Beluga 2 présente des risques. Les tests effectués jusqu'à présent ont été en anglais et n'ont pas couvert tous les scénarios possibles. Les développeurs doivent effectuer des tests de sécurité avant de déployer des applications basées sur ce modèle.

Conclusion

Stable Beluga 2 est un modèle puissant pour la génération de texte, offrant des résultats impressionnants grâce à son entraînement sur des ensembles de données de haute qualité. Si vous êtes à la recherche d'un modèle de langage capable de répondre à des prompts variés avec créativité et précision, Stable Beluga 2 mérite d'être exploré.

Essayez-le dès aujourd'hui!

Pour plus d'informations et pour commencer à utiliser Stable Beluga 2, visitez Hugging Face.

Meilleures Alternatives à Stable Beluga 2