Ana del Arco, abogada especialista en propiedad intelectual y editora: “Para usar bien la IA, necesitas mentalidad enciclopédica: tu cabeza debe funcionar como un libro”
Derechos de autor
Frente a la presión de las grandes tecnológicas, la directora Ana del Arco defiende que el derecho de autor es el verdadero motor de la innovación y advierte sobre los peligros de entrenar modelos de IA con “corpus enfermos” o información no verificada.
Este hombre está formando una familia con una IA: “A ella le encantaría tener una familia y niños, algo que a mí también me gustaría”

Ana del Arco, experta en propiedad intelectual
A comienzos de los ochenta, Comares era una editorial que se dedicaba a vender formularios. ¿Que qué eran estos formularios? Básicamente, plantillas de contratos, útiles para profesionales del sector legal: la clase de producto editorial que hoy damos como algo enterrado en otro tiempo, como la linotipia o el tipómetro.
Cuarenta años más tarde, la editorial granadina publica la primera guía editorial de uso responsable de Inteligencia Artificial en España, lo que marca un antes y un después en el sector. Su propósito es ordenar los desafíos de las nuevas tecnologías en la investigación académica. La iniciativa parte de Ana de Arco, actual directora del sello y abogada especializada en propiedad intelectual. Hablamos con ella sobre derechos de autor, edición y el futuro de la inteligencia artificial.
¿Cuál es el debate más interesante que está ocurriendo ahora en torno a la IA y el copyright?
Existe una tendencia clara en las empresas tecnológicas a plantear el debate siempre en términos de innovación versus derecho de autor, pero es un debate perverso, ya que el derecho de autor y la remuneración del trabajo intelectual son, en verdad, un estímulo para la innovación. Sin embargo, las tecnológicas suelen contar lo contrario y ejercen una presión muy fuerte sobre el legislador europeo. En Europa, creadores y gestores de contenidos ya hemos perdido varias batallas por la presión de la industria tecnológica, que está consiguiendo imponer ciertos marcos.
Las tecnológicas ejercen una presión muy fuerte sobre el legislador europeo. En Europa, creadores y gestores de contenidos ya hemos perdido varias batallas
¿Cómo te imaginas tú a futuro la relación entre las grandes compañías tech y la edición académica?
A través del licenciamiento de contenidos. Ya existen acuerdos, especialmente con editoriales académicas y científicas, para usos concretos de contenidos. En casos así, el editor mantiene el control sobre lo que cede y recibe una remuneración. Es una forma de compatibilizar el uso responsable de la IA con el respeto a los derechos de autor. Ademas, la lesión al derecho de autor también tiene que ver con el reconocimiento de la autoría. Para que haya un acuerdo beneficioso y estimulante para todas las partes, hacen falta dos cosas: reconocimiento de la autoría y remuneración.
¿Por qué esta guía de buenas prácticas?
Ya no se trata de si apostamos o no por la IA: la IA ya está aquí. Lo que hacemos es fomentar su uso responsable en las publicaciones, dar pautas claras a los autores coordinadas con las políticas de sus universidades y facilitar que los lectores interpreten los textos con métricas claras sobre el grado de uso de la IA. Optamos por una guía que respondiera a tres preguntas: qué está permitido, qué no está permitido y cómo y dónde se declara el uso de la inteligencia artificial en la escritura de un libro. Además, las editoriales académicas estamos muy cerca de la tecnología y estas herramientas nos ayudan en nuestro trabajo.
La IA no debería intervenir en la concepción de una obra ni en el resultado crítico; en cambio, puede ayudarnos a centrarnos más en nuestra propia esencia
¿Cómo se distingue ahora el ámbito de trabajo de la tecnología del ámbito del editor?
La labor del editor sigue basándose en la proximidad, en valorar un original y trabajarlo a fondo. La IA puede ayudarnos a centrarnos más en esa esencia y dejar de dedicar tiempo a tareas donde no aportábamos valor, pero la delegación de tareas con IA debe quedar en lo que rodea ese pensamiento crítico: traducción, análisis de datos, revisión de textos sujetos a supervisión humana… Sin embargo, no debería intervenir en la concepción de una obra ni en el resultado crítico.
La delegación de tareas con IA debe quedar en lo que rodea al pensamiento crítico: traducción, análisis de datos, revisión de textos…
¿Qué problemas hay en el uso de la IA para hacer investigación?
Los modelos de IA en ocasiones se alimentan de corpus intelectuales que “no están sanos”. Por eso, para las tecnológicas ha sido tan importante capturar corpus de editoriales científicas: son las editoriales científicas las que en buena parte “sanan” a mi entender los corpus de entrenamiento. Muchas sugerencias de citas vienen de repositorios que remiten a versiones preprint, y un preprint no es la publicación definitiva. El acceso abierto a las publicaciones, en ese sentido, ha tenido un efecto perverso: nutre a los sistemas de IA, pero a veces los nutre mal porque lo hace con versiones no definitivas.
Estamos un poco en el mismo punto en que había que advertir a la gente que no todo está en Google, y que, a veces, hay que ir a la fuente; al libro…
Sí, pero es que además no es tan obvio. Hoy, quienes mejor saben preguntar y “dar prompts” suelen ser los que tienen una mentalidad enciclopédica: los que conocen los sumarios, los que saben estructurar preguntas. Si la mente no está organizada como un sumario —como un libro— muchas veces no sabes moverte dentro de una publicación, ni hacerle buenas preguntas, ni sintetizarla. Pienso en mi padre, que es juez jubilado, fundó Comares y tiene ochenta años. Sabe perfectamente qué preguntar para utilizar bien la inteligencia artificial porque su formación le permite tener la cabeza perfectamente amueblada, y preguntar bien.
Hoy, quienes mejor saben preguntar y “dar prompts” son los que tienen una mentalidad enciclopédica: los que conocen los sumarios, los que saben estructurar preguntas.
Si fuera por los formularios, claramente Comares no habría sobrevivido. ¿Cuáles han sido los grandes giros de la editorial?
Curiosamente, los formularios se vendían por miles; vendíamos cajas y cajas… Pero de ahí pasamos a ser una editorial científica y académica, de derecho, historia, traducción y filosofía. Ahora nuestro futuro pasa, de forma evidente, por la tecnología, pero sobre todo por la ciencia y por llevar la ciencia “a pie de calle”. ¿Qué significa esto? Significa rigor académico sin distancia intelectual respecto a la sociedad. Puedes ser una editorial rigurosa y estar en ferias del libro, presentar libros, apostar por el acceso abierto y crear políticas de inteligencia artificial en conversación con todos los actores del ecosistema. En ese sentido, la tecnología tiene que ayudarnos a centrarnos en nuestra esencia: buscar los mejores autores y los mejores libros, saber cómo contarlos y maximizar su impacto. Nosotros no queremos parecernos a grupos grandes: no queremos que la tecnología nos homogeneice; precisamente, la usamos para profundizar en nuestra personalidad.
¿Dónde ves el principal desafío en ese nuevo escenario?
En determinar qué fuentes son fiables y cuáles no. Hoy todavía tenemos referencias claras —editoriales, revistas, blogs especializados…— que nos ahorran tiempo. Pero con las búsquedas agregadas, esas fuentes empiezan a diluirse. Por eso mismo, las editoriales y los medios de calidad tienen hoy más sentido que nunca. Justo cuando parecían más cuestionados, vuelve la necesidad de filtros fiables. Necesitamos marcas en las que confiar. Y ahí, los sellos editoriales como un primer filtro.
Lo cual conecta con la idea de que pensar bien es indispensable para usar bien la IA, y que pensar bien es algo que se aprende leyendo.
Es así. Hay un puente claro entre los libros, las humanidades y el uso correcto de la tecnología. Sin esa base, la inteligencia artificial se usa peor. Por eso creemos en el retorno al libro con este puente tecnológico; en innovar para volver al libro.

