¿Porqué creamos Archivo Final y qué supone para escritores?

Archivo Final nade hace unos dos años con la misión de conectar manuscritos inéditos de escritores y escritoras con las editoriales adecuadas. Para esto usamos inteligencia artificial y también algoritmia. No es simplemente “otra plataforma para escritores”: estamos construyendo un sistema inteligente que analiza, estructura y da nueva vida al contenido literario, todo con la potencia y comprensión de los grandes modelos de lenguaje.

¿Cuál es el problema que resolvemos?

Muchos escritores talentosos no encuentran eco en las editoriales correctas, o simplemente no saben cómo presentar su trabajo de forma que resalte su potencial. Por otro lado, las editoriales (grandes y pequeñas) reciben toneladas de manuscritos que no tienen un sistema efectivo para filtrar no solo calidad literaria, sino también estructura, personajes, temas, tono, y otros elementos clave que los hacen únicos. Ahí es donde entra Archivo Final.

Arquitectura de alto nivel

Nuestro sistema, que internamente llamamos LEO, está diseñado con una arquitectura modular y escalable:

  1. Ingestión y almacenamiento
    • Los manuscritos subidos por los autores se almacenan en una base de datos PostgreSQL, lo que nos permite gestionar grandes volúmenes de texto y metadatos de forma eficiente.
    • Implementamos un pipeline para procesar el texto en fragmentos (“chunking”), lo que facilita su análisis posterior con LLMs.
  2. Modelo de lenguaje y razonamiento
    • Usamos modelos LLM (por ejemplo, VertexAI Gemini) para generar resúmenes, análisis estructural del manuscrito, extracción de personajes, temas, y generación de insights editoriales.
    • Aplicamos un patrón similar a RAG (Retrieval-Augmented Generation): primero recuperamos contexto relevante (embeddings) y luego lo alimentamos al LLM para generar contenido interpretativo y estructurado.
  3. Validación y generación estructurada
    • No dejamos que el modelo “improvise”: definimos esquemas JSON que validan las respuestas del LLM para asegurarnos de que la salida sea coherente con lo que un editor o escritor espera (por ejemplo, “resumen”, “análisis de personajes”, “tema principal”).
    • Esta validación nos ayuda a evitar salidas erráticas o irrelevantes, y garantiza que lo que generamos sea útil para el usuario.
  4. Pipeline de despliegue y automatización
    • Tenemos API internas construidas con ADK para servir los endpoints de análisis y generación.
    • Implementamos mecanismos de reentrenamiento (o al menos de ajuste de prompts) para mantener el sistema actualizado y adaptado a nuevos patrones literarios o tipo de manuscritos que recibimos.

Decisiones técnicas clave y trade-offs

  • Por qué usar PostgreSQL: Nos da robustez para manejar metadata compleja y consultas estructuradas (por ejemplo: “muéstrame todos los personajes frecuentes”). Una base documental como MongoDB podría haber sido una opción, pero PostgreSQL nos ofrece mejor integridad, relaciones y escalabilidad en el contexto de datos literarios.
  • Uso de RAG vs generación “en blanco”: Elegimos RAG porque nos permite combinar conocimiento específico (texto del manuscrito) con la creatividad del LLM. Esto mejora la relevancia de las respuestas y reduce el riesgo de respuestas inventadas (“alucinaciones”) fuera de contexto.
  • Validación mediante esquemas: Introducir schema JSON añade complejidad, pero es un compromiso necesario para asegurar que las salidas sean estructuradas y realmente útiles para la edición.

Qué hemos logrado hasta ahora

  • Hemos lanzado LEO (la versión inicial de nuestro sistema) durante 2025 con usuarios reales (escritores y editores) en nuestra fase de prueba.
  • Observamos que los usuarios valoran especialmente los análisis de personajes y los resúmenes estructurados, lo que nos da una señal clara de hacia dónde debe ir el producto.
  • Al automatizar gran parte del análisis editorial, podemos escalar el servicio sin exigir un esfuerzo proporcionalmente mayor por parte del equipo humano.

¿Qué sigue para Archivo Final?

Nuestra visión a medio plazo:

  • Añadir más tipos de análisis (“tensión narrativa”, “arco de personajes”, predicción de subidas de tramas”).
  • Permitir integración directa con editoriales (APIs) para que el resultado de LEO pueda usarse automáticamente en procesos editoriales.
  • Incluir evaluación automática de manuscritos para predicción de éxito editorial (basado en datos y métricas).
  • Mejorar la experiencia de feedback: que el escritor pueda conversar con LEO para construir una versión más pulida antes de presentarla.

Archivo Final no es solo una herramienta para escritores: es una interfaz entre el talento literario y las editoriales, mediada por IA generativa que entiende texto, estructura y significado.

Tecnológicamente, lo que hemos implementado es un sistema robusto, escalable y centrado en el usuario, que combina bases de datos tradicionales, grandes modelos de lenguaje, esquemas de validación y procesos iterativos de feedback para ofrecer un análisis editorial profundo y útil.

Para mí, como desarrollador y fundador, este proyecto representa más que código: es la oportunidad de transformar la forma en que se crea y distribuye la literatura, hacer que el talento literario sea más accesible, y conectar escritores con su audiencia de forma más inteligente.

Scroll al inicio