BiomedByIA (Biobyia Merged)
Este é um modelo Llama 3 8B ajustado (fine-tuned) para a área médica, treinado para atuar como um assistente especializado em perguntas e respostas baseadas em evidências científicas.
O modelo foi treinado utilizando o framework Unsloth e mergeado para facilitar a inferência direta.
🌟 Características
- Base: Meta-Llama-3-8B
- Foco: Medicina e Saúde (Question-Answering)
- Idioma: Português (Otimizado para o contexto médico brasileiro)
- Formato: Safetensors (Mergeado)
🚀 Como Usar
Via Transformers (Python)
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_id = "vitateje/biomedbyia"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.float16,
device_map="auto",
)
messages = [
{"role": "system", "content": "Você é um assistente médico especializado. Responda com base em evidências."},
{"role": "user", "content": "Quais são os principais sintomas da diabetes tipo 2?"},
]
input_ids = tokenizer.apply_chat_template(messages, return_tensors="pt").to("cuda")
outputs = model.generate(input_ids, max_new_tokens=512)
print(tokenizer.decode(outputs[0]))
🛠️ Detalhes de Treinamento
O modelo foi treinado com o sistema LoRA e posteriormente mergeado. O template utilizado segue o formato instrucional para garantir respostas precisas e estruturadas.
Template de Prompt
O modelo espera o seguinte formato:
System: {Instruções do Sistema}
Instruction: {Pergunta/Tarefa}
Response:
⚠️ Disclaimer
Este modelo é uma ferramenta de auxílio e não substitui o diagnóstico ou aconselhamento médico profissional. Sempre consulte um profissional de saúde qualificado.
Acknowledgements
Treinado com Unsloth.
- Downloads last month
- -
Model tree for vitateje/biomedbyia
Base model
meta-llama/Meta-Llama-3-8B