Token
Inteligencia artificialDefinición:
Unidad fundamental de texto que los modelos de lenguaje procesan, aproximadamente equivalente a una sílaba o palabra corta.
Ejemplo clínico. Informe de 3.000 palabras, unos 4,000 tókenes. GPT-4 con límite de 8.000 tókenes puede procesar el informe completo más instrucciones, pero no tres informes simultáneamente.
Precaución. Exceder límites de tókenes trunca información, potencialmente omitiendo datos críticos.
Relevancia para la práctica. Determina cuánta información clínica puede procesarse en una sola interacción con IA.
Artículos relacionados:
| Correlaciones neuropsicobiológicas de las psicosis cicloides. |
Contenidos relacionados:
