Hace apenas unos años, hablar de inteligencia artificial evocaba laboratorios silenciosos, investigadores obsesionados con matrices algebraicas y alguna que otra película de ciencia ficción. Hoy la realidad es mucho más interesante (y cercana): la IA está en la consulta del médico, en la aplicación móvil del banco, en las aulas y hasta en los debates familiares sobre qué serie ver.
El ritmo de cambio es tan rápido que, si uno pestañea, corre el riesgo de quedarse atrás. ¿Qué está pasando realmente? ¿Qué se está investigando? ¿Cómo está afectando a la vida cotidiana? Y, sobre todo, ¿qué futuro nos espera?
Los expertos llevan tiempo advirtiéndolo, pero en 2025 se ha hecho evidente: estamos entrando en la era de la IA agentiva. La empresa consultora y de investigación de las tecnologías de la información Gartner lo describe como una de las tecnologías con mayor potencial de impacto en los próximos años.
¿Qué significa esto, más allá del término llamativo? Que la inteligencia artificial está empezando a hacer algo que antes parecía exclusivo de los humanos: planear.
Hasta hace poco, los modelos respondían a preguntas, generaban un texto o clasificaban una imagen. Ahora empiezan a descomponer un problema en pasos, tomar decisiones intermedias y coordinar herramientas para alcanzar un objetivo. Ya existen prototipos capaces de revisar contratos, extraer datos, redactar informes y coordinar aplicaciones sin intervención humana directa.
Paralelamente, la industria tecnológica vive una transformación menos visible, pero decisiva. El desarrollo de chips especializados, infraestructuras más eficientes y nuevos enfoques en el tratamiento de datos está permitiendo avances como los modelos multimodales, capaces de procesar texto, imagen, audio y vídeo de forma conjunta.
La conclusión es clara: la IA ya no solo reconoce patrones; empieza a comprender contextos, conectar ideas y actuar.
Ahora bien, la verdadera medida de una tecnología está en lo que cambia en la vida cotidiana. Y en ese terreno, la inteligencia artificial ya ha dejado de ser una promesa futurista para convertirse en algo tangible. No hace falta mirar muy lejos: basta con observar cómo está empezando a transformar la forma en que nos atendemos en el médico, cómo aprendemos, cómo trabajamos o incluso cómo se organiza el tráfico en nuestras ciudades. Son cambios discretos, casi silenciosos, pero que marcan el pulso de una revolución que ya está aquí. A continuación, repasamos algunas aplicaciones reales de la IA en distintos ámbitos.
El cambio más visible, y quizá el más prometedor, está sucediendo en la medicina. Hace ya 14 años, tuve la oportunidad de colaborar con el CISIAD (Centro de Investigación sobre Sistemas Inteligentes de Ayuda a la Decisión) y con el Dr. D. Francisco Javier Díez Vegas en la elaboración de una tesis (ArthroNET) centrada en la predicción del grado de éxito de una intervención quirúrgica, una artroplastia total de rodilla, mediante el uso de modelos gráficos probabilistas. La evolución desde entonces es evidente. En los últimos meses, los titulares han hablado de un estetoscopio inteligente capaz de detectar insuficiencia cardíaca o valvulopatías en apenas 15 segundos gracias a algoritmos de inteligencia artificial.
No es un caso aislado. Hospitales de distintos países están probando sistemas basados en inteligencia artificial que analizan imágenes médicas con una rapidez que libera tiempo para los profesionales sanitarios y contribuye a reducir las listas de espera.

En paralelo, se están utilizando modelos de inteligencia artificial para detectar patrones en biomarcadores, analizar señales de voz asociadas a enfermedades neurológicas y acelerar el diseño de nuevos fármacos. No hablamos de experimentos de laboratorio, sino de herramientas en pruebas clínicas o ya implantadas en entornos reales.
La inteligencia artificial también se ha incorporado a las aulas, aunque no siempre sin polémica. Lo relevante es cómo está transformando los procesos de enseñanza y aprendizaje: explicaciones personalizadas, asistentes que detectan dificultades del estudiante, tutores virtuales que adaptan el ritmo a cada alumno o herramientas que facilitan resúmenes de apuntes y la generación de tests de práctica.
El matiz clave es que este tipo de soluciones no sustituyen al profesor; lo amplifican. Permiten dedicar más tiempo a la dimensión humana del aprendizaje —acompañar, guiar, motivar— y menos a tareas repetitivas.
El debate sobre la pérdida de empleo reaparece cada vez que surge una tecnología disruptiva. Sin embargo, los estudios recientes ofrecen una visión más matizada. En su informe State of AI 2025, McKinsey señala que el 88 % de las empresas ya utiliza inteligencia artificial en alguna de sus funciones, pero solo un tercio está logrando escalar estas iniciativas de forma efectiva.
¿Qué implica esto? Que los trabajos no desaparecen de manera homogénea: se transforman.
Las tareas rutinarias, incluidas muchas de carácter cognitivo, se automatizan, pero surgen nuevos perfiles profesionales: auditores de modelos, especialistas en gobernanza de IA, diseñadores de experiencias multimodales o roles híbridos que combinan ingeniería y humanidades.
Todos ellos comparten una base común: pensamiento computacional, comprensión de sistemas complejos, análisis de datos y capacidad para trabajar con algoritmos, competencias que forman parte del núcleo de titulaciones como el Grado en Ingeniería Informática de la UEMC.
Como dijo el artista marcial y actor Bruce Lee, frase popularizada posteriormente en un anuncio de BMW: “Be water, my friend”. Aceptemos la transformación y adaptémonos a ella. El cambio es profundo, pero no apocalíptico.
La inteligencia artificial promete eficiencia, precisión y una capacidad casi ilimitada para analizar datos que antes se escapaban a cualquier equipo humano. En apariencia, todo apunta a una tecnología destinada a mejorar nuestra calidad de vida y a liberar tiempo para actividades más creativas o humanas.
Sin embargo, esa lectura optimista convive con otra mucho menos cómoda. A medida que la inteligencia artificial se integra en sectores críticos, también empieza a desplazar tareas que durante décadas fueron la base de miles de profesiones. El impacto laboral no llegará como un cataclismo repentino, sino como una erosión progresiva: funciones que desaparecen, responsabilidades que se automatizan y carreras profesionales que pierden valor si no se adaptan con rapidez. Esta transición no afectará a todos por igual. Quien tenga acceso a formación y recursos podrá reconvertirse; quien no, corre el riesgo de quedar al margen de un mercado laboral que avanza más rápido de lo que muchos pueden seguir.
Pero quizá el problema más profundo no es económico, sino de confianza. Gran parte de los sistemas de inteligencia artificial actuales funcionan como cajas negras: ofrecen resultados, pero rara vez explican cómo han llegado a ellos. ¿Cuántas veces el lector ha hecho uso de, por ejemplo, ChatGPT, y no se ha cuestionado su respuesta? Esto convierte en un acto de fe decisiones que afectan a la aprobación de un crédito, la selección de un candidato o la determinación de un diagnóstico clínico. Delegar poder en una herramienta que no entendemos plantea un dilema incómodo: ¿qué margen tenemos para cuestionar una decisión automática cuando no sabemos qué variables ha considerado ni qué sesgos ha heredado?
A esto se une un riesgo que suele pasar desapercibido: la concentración del poder tecnológico. Cada vez más, las infraestructuras de inteligencia artificial —modelos, datos y servidores— están en manos de unas pocas empresas, lo que genera una dependencia estructural difícil de revertir. La sociedad, las administraciones públicas e incluso sectores completos de la economía quedan atados a tecnologías que no controlan y cuyo funcionamiento no pueden auditar.
Así, aunque la inteligencia artificial ofrece oportunidades innegables, también nos obliga a hacer preguntas que no deberíamos aplazar: ¿quién supervisa a los algoritmos?, ¿quién marca los límites?, ¿qué derechos quedan comprometidos cuando un modelo opaco interviene en decisiones cruciales? El futuro de esta tecnología no depende únicamente de su potencia, sino de nuestra capacidad para exigir transparencia, responsabilidad y un reparto justo de sus beneficios. Sin ello, corremos el riesgo de construir una sociedad más eficiente, sí, pero también más desigual y menos libre.
En esta línea, Europa está tratando de actuar con prudencia, apostando por regulaciones que prioricen la transparencia y la seguridad. Puede parecer un freno a la innovación, pero también puede convertirse en ventaja competitiva si se hace bien: un sello de confianza para la inteligencia artificial desarrollada desde aquí.
El futuro de la inteligencia artificial no depende solo de los ingenieros ni de las empresas tecnológicas. Depende de cómo la sociedad decida utilizarla, regularla y convivir con ella. Depende de qué educación reciba la próxima generación, de qué valores se incorporen a los algoritmos y de cómo se repartan los beneficios de esta, y entrecomillo a propósito, “revolución”.
Lo sabemos, estamos ante una tecnología potente, compleja y profundamente transformadora. Pero sigue siendo una herramienta. Una herramienta extraordinaria, sí, y remarco, pero una herramienta, al fin y al cabo. Su impacto —positivo o negativo— dependerá de nosotros.

Cualquier conversación sobre el futuro de la inteligencia artificial estaría incompleta si no incluyera una reflexión ética. Los modelos actuales, desde los sistemas multimodales hasta los agentes autónomos, heredan un dilema que ya se intuía en las primeras aplicaciones de IA clínica. En trabajos como ArthroNET, donde se usaban modelos probabilísticos para asistir en decisiones médicas complejas, quedaba claro que incluso el sistema más preciso dependía de la calidad de los datos, de los supuestos del modelo y, sobre todo, del criterio humano que interpretaba sus resultados.
Ese mismo principio se vuelve aún más urgente, ¡e importante!, hoy: la inteligencia artificial guía, pero no debe mandar. Y cuando se despliega en ámbitos sensibles —diagnósticos médicos, evaluación educativa, decisiones financieras, acceso a empleo— aparecen riesgos que no pueden ignorarse: sesgos reproducidos a gran escala, modelos opacos difíciles de auditar, desigualdades reforzadas por algoritmos y dudas sobre quién es responsable cuando una máquina se equivoca. No basta con que la tecnología funcione; debe funcionar de forma justa, comprensible, trazable y supervisable.
El desafío ético consiste, precisamente, en evitar que la inteligencia artificial se convierta en una especie de “autoridad silenciosa” que toma decisiones sin que podamos explicar cómo y por qué. De ahí que consultoras como Gartner insistan en la necesidad de modelos confiables y auditables, y que informes como el de McKinsey destaquen que la adopción responsable de IA no es solo cuestión de rendimiento, sino de gobernanza. El futuro no pasa únicamente por tener algoritmos más potentes, sino por definir marcos que garanticen que la última palabra sigue siendo humana.
Porque sí, la inteligencia artificial puede acompañarnos como una fuerza poderosa, capaz de transformar el mundo. Pero la ética, esa última frontera, no la dicta ningún algoritmo. Se escribe con decisiones humanas.

C/Padre Julio Chevalier, nº 2. 47012
Valladolid (España)
Llamanos al (+34) 983 00 1000
¿Te ha gustado el artículo?
No se te olvide compartir en redes sociales