Inteligencia artifical
La integración de inteligencia artificial en el backend de aplicaciones web ha dejado de ser una novedad para convertirse en una habilidad fundamental. Node.js, gracias a su ecosistema y su naturaleza asíncrona, es una plataforma excelente para construir servicios que se comuniquen con modelos de lenguaje, procesen datos con IA y ofrezcan experiencias inteligentes a los usuarios.
Conceptos clave previos
Token
Los LLMs no procesan texto carácter a carácter ni palabra a palabra, sino en tokens: fragmentos de texto que pueden ser una palabra, parte de una palabra o un signo de puntuación. En inglés, 1 token ≈ 4 caracteres. En español el ratio es algo peor (~3 caracteres/token).
"Hola mundo"→ ~3 tokens"Inteligencia artificial"→ ~4-5 tokens
Los costes de las APIs y los límites de contexto se miden en tokens.
Contexto
El contexto o ventana de contexto (context window) es la cantidad máxima de tokens que un modelo puede "ver" en una sola interacción (entrada + salida). Modelos modernos tienen ventanas de 128K o incluso 1M de tokens.
Temperatura
Parámetro entre 0 y 1 (o 2) que controla la creatividad/aleatoriedad de las respuestas:
0→ respuestas deterministas y conservadoras.1→ respuestas más variadas y creativas.
Prompt
El texto de entrada que se envía al modelo. Diseñar buenos prompts es una habilidad en sí misma.