text generation
Collection
1 item
•
Updated
felguk-v0 — это мощная языковая модель, разработанная для решения задач генерации текста, классификации и других NLP-задач. Модель обучена на большом объеме данных и оптимизирована для высокой производительности и точности.
Посмотрите видео ниже, чтобы увидеть, как работает модель:
transformers
Для локального использования модели:
from transformers import AutoModelForCausalLM, AutoTokenizer
# Загрузка модели и токенизатора
model_name = "felguk/felguk-v0"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
# Пример текста для генерации
input_text = "Ваш текст здесь"
# Токенизация входного текста
inputs = tokenizer(input_text, return_tensors="pt")
# Генерация текста
outputs = model.generate(**inputs, max_length=50)
# Декодирование и вывод результата
generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(generated_text)