Saltar al contenido principal

Inteligencia artifical

La integración de inteligencia artificial en el backend de aplicaciones web ha dejado de ser una novedad para convertirse en una habilidad fundamental. Node.js, gracias a su ecosistema y su naturaleza asíncrona, es una plataforma excelente para construir servicios que se comuniquen con modelos de lenguaje, procesen datos con IA y ofrezcan experiencias inteligentes a los usuarios.

Conceptos clave previos

Token

Los LLMs no procesan texto carácter a carácter ni palabra a palabra, sino en tokens: fragmentos de texto que pueden ser una palabra, parte de una palabra o un signo de puntuación. En inglés, 1 token ≈ 4 caracteres. En español el ratio es algo peor (~3 caracteres/token).

  • "Hola mundo" → ~3 tokens
  • "Inteligencia artificial" → ~4-5 tokens

Los costes de las APIs y los límites de contexto se miden en tokens.

Contexto

El contexto o ventana de contexto (context window) es la cantidad máxima de tokens que un modelo puede "ver" en una sola interacción (entrada + salida). Modelos modernos tienen ventanas de 128K o incluso 1M de tokens.

Temperatura

Parámetro entre 0 y 1 (o 2) que controla la creatividad/aleatoriedad de las respuestas:

  • 0 → respuestas deterministas y conservadoras.
  • 1 → respuestas más variadas y creativas.

Prompt

El texto de entrada que se envía al modelo. Diseñar buenos prompts es una habilidad en sí misma.

Stack tecnológico habitual en Node.js