PIBot Joint BERT - BETO
Modelo Joint BERT entrenado para clasificaci贸n de intenci贸n y extracci贸n de entidades (slot filling) en consultas sobre indicadores econ贸micos del Banco Central de Chile.
Descripci贸n del Modelo
Este modelo est谩 basado en la arquitectura Joint BERT que realiza simult谩neamente:
- Clasificaci贸n de Intenci贸n: Determina si la consulta busca valores (
value) o informaci贸n metodol贸gica (methodology) - Slot Filling: Identifica y extrae entidades como indicadores, per铆odos, tipos de medida, sectores, etc.
Modelo Base
- Arquitectura: BERT (dccuchile/bert-base-spanish-wwm-cased)
- Idioma: Espa帽ol
- Task: pibimacec
- 脡pocas de entrenamiento: 20.0
Uso
Instalaci贸n
pip install torch transformers pytorch-crf
Ejemplo de Uso
from transformers import BertTokenizer
from modeling_jointbert import JointBERT
import torch
# Cargar modelo y tokenizer
model_dir = "smenaaliaga/pibot-jointbert-beto" # Cambiar por tu repo
tokenizer = BertTokenizer.from_pretrained(model_dir)
# Cargar labels
intent_labels = ["methodology", "value"]
slot_labels = ["O", "B-indicator", "I-indicator", "B-period", "I-period", ...]
# Inicializar modelo (requiere c贸digo personalizado de JointBERT)
model = JointBERT.from_pretrained(
model_dir,
intent_label_lst=intent_labels,
slot_label_lst=slot_labels
)
# Predecir
text = "cual fue el imacec de agosto 2024"
# ... (c贸digo de predicci贸n)
Datos de Entrenamiento
El modelo fue entrenado en un dataset especializado de consultas sobre:
- IMACEC: Indicador Mensual de Actividad Econ贸mica
- PIB: Producto Interno Bruto
- Sectores econ贸micos (miner铆a, comercio, industria, etc.)
- Per铆odos temporales (meses, trimestres, a帽os)
Etiquetas
Intenciones:
value: Consultas sobre valores/datos espec铆ficosmethodology: Consultas sobre metodolog铆a/definiciones
Slots (entidades):
indicator: Indicador econ贸mico (IMACEC, PIB)period: Per铆odo temporalmeasure_type: Tipo de medida (variaci贸n, 铆ndice, etc.)sector: Sector econ贸micoseries_type: Tipo de serie (original, desestacionalizada, tendencia-ciclo)
Rendimiento
- Intent Accuracy: ~95%+
- Slot F1-Score: ~90%+
(Valores aproximados, ver logs de entrenamiento para m茅tricas exactas)
Limitaciones
- Entrenado espec铆ficamente para consultas sobre indicadores econ贸micos chilenos
- Mejor rendimiento en consultas cortas-medianas (< 50 tokens)
- Puede tener dificultades con consultas muy ambiguas o fuera de dominio
Cita
Si usas este modelo, por favor cita:
@misc{pibot-jointbert,
author = {Banco Central de Chile},
title = {PIBot Joint BERT - Modelo de Clasificaci贸n de Intenci贸n y Slot Filling},
year = {2025},
publisher = {Hugging Face},
howpublished = {\url{https://huggingface.co/smenaaliaga/pibot-jointbert-beto}}
}
Licencia
MIT License
M谩s Informaci贸n
- Paper original: BERT for Joint Intent Classification and Slot Filling
- Implementaci贸n base: JointBERT
- Downloads last month
- 15
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
馃檵
Ask for provider support