Archivo Final nade hace unos dos años con la misión de conectar manuscritos inéditos de escritores y escritoras con las editoriales adecuadas. Para esto usamos inteligencia artificial y también algoritmia. No es simplemente “otra plataforma para escritores”: estamos construyendo un sistema inteligente que analiza, estructura y da nueva vida al contenido literario, todo con la potencia y comprensión de los grandes modelos de lenguaje.
¿Cuál es el problema que resolvemos?
Muchos escritores talentosos no encuentran eco en las editoriales correctas, o simplemente no saben cómo presentar su trabajo de forma que resalte su potencial. Por otro lado, las editoriales (grandes y pequeñas) reciben toneladas de manuscritos que no tienen un sistema efectivo para filtrar no solo calidad literaria, sino también estructura, personajes, temas, tono, y otros elementos clave que los hacen únicos. Ahí es donde entra Archivo Final.
Arquitectura de alto nivel
Nuestro sistema, que internamente llamamos LEO, está diseñado con una arquitectura modular y escalable:
- Ingestión y almacenamiento
- Los manuscritos subidos por los autores se almacenan en una base de datos PostgreSQL, lo que nos permite gestionar grandes volúmenes de texto y metadatos de forma eficiente.
- Implementamos un pipeline para procesar el texto en fragmentos (“chunking”), lo que facilita su análisis posterior con LLMs.
- Modelo de lenguaje y razonamiento
- Usamos modelos LLM (por ejemplo, VertexAI Gemini) para generar resúmenes, análisis estructural del manuscrito, extracción de personajes, temas, y generación de insights editoriales.
- Aplicamos un patrón similar a RAG (Retrieval-Augmented Generation): primero recuperamos contexto relevante (embeddings) y luego lo alimentamos al LLM para generar contenido interpretativo y estructurado.
- Validación y generación estructurada
- No dejamos que el modelo “improvise”: definimos esquemas JSON que validan las respuestas del LLM para asegurarnos de que la salida sea coherente con lo que un editor o escritor espera (por ejemplo, “resumen”, “análisis de personajes”, “tema principal”).
- Esta validación nos ayuda a evitar salidas erráticas o irrelevantes, y garantiza que lo que generamos sea útil para el usuario.
- Pipeline de despliegue y automatización
- Tenemos API internas construidas con ADK para servir los endpoints de análisis y generación.
- Implementamos mecanismos de reentrenamiento (o al menos de ajuste de prompts) para mantener el sistema actualizado y adaptado a nuevos patrones literarios o tipo de manuscritos que recibimos.
Decisiones técnicas clave y trade-offs
- Por qué usar PostgreSQL: Nos da robustez para manejar metadata compleja y consultas estructuradas (por ejemplo: “muéstrame todos los personajes frecuentes”). Una base documental como MongoDB podría haber sido una opción, pero PostgreSQL nos ofrece mejor integridad, relaciones y escalabilidad en el contexto de datos literarios.
- Uso de RAG vs generación “en blanco”: Elegimos RAG porque nos permite combinar conocimiento específico (texto del manuscrito) con la creatividad del LLM. Esto mejora la relevancia de las respuestas y reduce el riesgo de respuestas inventadas (“alucinaciones”) fuera de contexto.
- Validación mediante esquemas: Introducir schema JSON añade complejidad, pero es un compromiso necesario para asegurar que las salidas sean estructuradas y realmente útiles para la edición.
Qué hemos logrado hasta ahora
- Hemos lanzado LEO (la versión inicial de nuestro sistema) durante 2025 con usuarios reales (escritores y editores) en nuestra fase de prueba.
- Observamos que los usuarios valoran especialmente los análisis de personajes y los resúmenes estructurados, lo que nos da una señal clara de hacia dónde debe ir el producto.
- Al automatizar gran parte del análisis editorial, podemos escalar el servicio sin exigir un esfuerzo proporcionalmente mayor por parte del equipo humano.
¿Qué sigue para Archivo Final?
Nuestra visión a medio plazo:
- Añadir más tipos de análisis (“tensión narrativa”, “arco de personajes”, predicción de subidas de tramas”).
- Permitir integración directa con editoriales (APIs) para que el resultado de LEO pueda usarse automáticamente en procesos editoriales.
- Incluir evaluación automática de manuscritos para predicción de éxito editorial (basado en datos y métricas).
- Mejorar la experiencia de feedback: que el escritor pueda conversar con LEO para construir una versión más pulida antes de presentarla.
Archivo Final no es solo una herramienta para escritores: es una interfaz entre el talento literario y las editoriales, mediada por IA generativa que entiende texto, estructura y significado.
Tecnológicamente, lo que hemos implementado es un sistema robusto, escalable y centrado en el usuario, que combina bases de datos tradicionales, grandes modelos de lenguaje, esquemas de validación y procesos iterativos de feedback para ofrecer un análisis editorial profundo y útil.
Para mí, como desarrollador y fundador, este proyecto representa más que código: es la oportunidad de transformar la forma en que se crea y distribuye la literatura, hacer que el talento literario sea más accesible, y conectar escritores con su audiencia de forma más inteligente.


