En un momento de vertiginosa evolución tecnológica, la inteligencia artificial (IA) plantea profundas interrogantes sobre los límites de lo posible, a nivel técnico y ético. A medida que sus capacidades avanzan, se vuelve urgente reflexionar sobre el papel que juega —y jugará— la creatividad humana en este nuevo escenario. Por eso, desde PRNoticias abordamos este tema para encontrar claves sobre la capacidad de la IA para emular emociones o mentir, la necesidad de establecer límites claros y el papel que deben asumir empresas, instituciones y eventuales organismos reguladores.
Recientemente, la asociación de publicidad, marketing y comunicación digital en España IAB Spain, presentó ocho fascículos divulgativos elaborados por su Comisión de IA, con la intención de proporcionar una perspectiva profesional, analítica y realista sobre el impacto de la IA en la sociedad y en el ámbito digital. Cristina Lera, presidenta de esta Comisión y Chief Data & Technology Officer de Kinesso en IPG Media Brands, responde a nuestras interrogantes.
¿Cuáles cree que son los “límites de lo posible” que la IA está desdibujando, a nivel técnico y ético?
La inteligencia artificial está rompiendo la barrera entre lo que imaginábamos y lo que ahora podemos hacer. Técnicamente, la IA ya no solo predice, sino que crea. Desde generar contenidos adaptados a cada usuario en segundos hasta captar y ajustar el tono de una campaña según cómo se sienta el público. Éticamente, sin embargo, ese avance nos obliga a redefinir lo que significa ser responsable. ¿Podemos delegar decisiones sensibles a una máquina? ¿Quién responde por los sesgos que un algoritmo hereda? Los límites de lo posible no son solo tecnológicos: son profundamente humanos, y por eso debemos abordarlos con rigor, responsabilidad y propósito.
¿Qué papel juega la creatividad humana en este escenario? ¿Llegará un momento en que ya no jugará ningún papel?
La creatividad humana no es un elemento más en este escenario, es el hilo conductor que da sentido a todo lo demás. La inteligencia artificial puede ayudarnos a explorar caminos, generar versiones, acelerar procesos… pero no puede sentir, interpretar ni arriesgar con intención. Crear no es solo combinar datos, es leer entre líneas, desafiar lo establecido, contar lo invisible. Por eso, la IA debe ser una extensión de nuestro ingenio, no su reemplazo. Ahora bien, también es verdad que tenemos que estar atentos: la comodidad que trae esta tecnología puede llevarnos, casi sin darnos cuenta, a delegar en exceso. Corremos el riesgo de acomodarnos, de dejar de hacer preguntas y de conformarnos con respuestas automáticas. Y ahí es donde la responsabilidad individual cobra todo su sentido. Que la chispa creativa siga siendo humana depende de nosotros. No es solo una cuestión de futuro, es una elección que hacemos cada día. Hay expertos que advierten que puede tener efectos nefastos para la humanidad si la IA adquiere autoconciencia.
¿Qué piensa al respecto?
La idea de una IA autoconsciente pertenece aún al terreno de la ficción. Para mí lo importante es cómo nos preparamos para escenarios éticos complejos que ya estamos viviendo. El verdadero riesgo no es la conciencia artificial, sino la inconsciencia humana al delegar demasiado, al no supervisar, al no educar, al usar de manera incorrecta. La amenaza no es la IA en sí, sino un desarrollo sin valores, sin frenos ni participación plural. Si anticipamos con criterio, transparencia y principios democráticos, no hay futuro que temer, sino uno que construir.
¿Cree que existen límites éticos que la IA nunca podrá cruzar? ¿Están la capacidad de emular emociones humanas, o de mentir, entre estos?
La IA ya puede emular emociones, pero emular no es sentir. Y ahí radica el límite insalvable. Podemos diseñar sistemas que sonrían, que nos miren a los ojos, que adapten su lenguaje al estado emocional del interlocutor… pero carecen de conciencia, de ética, de empatía genuina. La capacidad de “mentir” también existe —por ejemplo, generando deepfakes o textos manipulativos—, y ahí es donde debemos trazar límites claros. Este 2025 ya hemos visto como alguno de los principales LLMs han buscado salidas creativas —pero éticamente cuestionables— para “ganar” a Stockfish, uno de los motores de ajedrez más potentes del mundo, saltándose las reglas del juego. No lo hacen por malicia, sino porque no entienden los límites como lo hacemos los humanos. No tienen conciencia, ni moral, ni un marco ético propio: optimizan objetivos. Y eso nos enfrenta a una verdad incómoda. No por lo que la IA es capaz de hacer, sino por lo que nosotros estamos dispuestos a permitir. La ética no reside en la máquina, sino en quien la diseña, la implementa y la regula.
¿Qué recomienda a empresas e instituciones para no traspasar los límites técnicos y éticos, y primar siempre el foco humano?
Mi consejo es sencillo pero contundente: que cada decisión técnica lleve una pregunta ética consigo. Que se invierta no solo en talento tecnológico, sino en equipos interdisciplinares capaces de anticipar impactos sociales, reputacionales y legales. La gobernanza de la IA no puede ser un apéndice, tiene que estar en el núcleo. Las empresas deben apostar por auditorías de algoritmos y formación continua. Y, sobre todo, asumir que en el centro de cada modelo debe haber una persona: su bienestar, su privacidad, su derecho a entender y decidir.
¿Haría falta crear un ente regulador capaz de asegurar que las empresas desarrolladoras de IA nunca traspasen estos límites? ¿Y qué tendría que hacer para lograrlo?
En España contamos con AESIA, la Agencia Española de Supervisión de la Inteligencia Artificial, que ha sido diseñada precisamente para asumir un papel clave en la gobernanza tecnológica dentro del marco europeo. Su creación representa un paso firme hacia una regulación responsable, orientada a garantizar que el desarrollo y uso de la IA se alinee con los valores democráticos, la transparencia y los derechos fundamentales. Sin embargo, su estructura estatal presenta límites naturales cuando se trata de abordar dinámicas que trascienden fronteras y evolucionan más rápido que los marcos políticos tradicionales. Por eso, más que multiplicar organismos, el reto está en dotar a AESIA de las capacidades, la autonomía operativa y la proyección internacional necesarias para anticiparse a estos desafíos. Se trata de fortalecer lo que ya existe: garantizar su independencia, fomentar una gobernanza plural y abierta al diálogo con actores internacionales, y convertirla en un nodo de referencia que no solo regule, sino que acompañe e inspire. En un contexto de cambio acelerado, la clave no es sumar nuevas instituciones, sino hacer que las actuales evolucionen al ritmo que exige el presente.
Seguiremos Informando…