La inteligencia artificial (IA) sistemas que imitan capacidades cognitivas humanas a través de algoritmos y datos, hoy salud, industria y servicios se transforman y ofrecen inmensos beneficios económicos antes que sociales, con riesgos técnicos, éticos y laborales, y lejos están las regulaciones en diseños responsables. Porque la IA agrupa técnicas informáticas para que las máquinas aprendan a percibir, razonar y tomar decisiones con los datos y modelos matemáticos aplicados con una tecnología en conjunto, aprendizaje automático, redes neuronales, procesamiento del lenguaje, visión por computador, que se desarrollan desde mediados del siglo XX. Hoy sin duda sirve y tiene aplicación en automatización de tareas repetitivas, diagnóstico médico asistido, recomendaciones personalizadas, optimización logística, asistentes conversacionales y análisis de grandes volúmenes de datos. La mayoría de las herramientas que usamos, asistentes de voz, filtros de spam, motores de recomendación, incorporan IA para mejorar eficiencia y experiencia de los usuario, y entre otros beneficios potenciales están la productividad y como siempre el crecimiento económico, pues aumenta la eficiencia en sectores clave, creando nuevos servicios, mejorando la salud y la seguridad en diagnósticos más rápidos, predicción de fallos y optimización de recursos sanitarios, además del acceso a información y personalización en educación y servicios adaptados a las necesidades individuales. Claro está, que estos beneficios van a depender de los datos y la calidad de la infraestructura y políticas públicas en garantizar su acceso equitativo y transparente.
Como todo tiene sus riesgos que hay que mitigar, principalmente la pérdida de empleos por automatización, sesgos en decisiones automatizadas, vulnerabilidades de seguridad, concentración de poder en pocas empresas y problemas de privacidad. Ante tales realidades se requieren de prácticas y diseños responsables, auditando los modelos por sesgos documentando las decisiones, reguladas por los gobiernos, con leyes que se cumplan y exijan transparencia, responsabilidad y derechos de los usuarios. Por lo que se requiere de la formación y reconversión laboral con programas públicos y privados que capaciten a los trabajadores en habilidades complementarias a la IA. La seguridad técnica, pruebas de robustez y planes de contingencia ante fallos, medidas estas que hay que implementar para reducir los daños con máximos beneficios. En el futuro próximo humanos y máquinas serán híbridos con capacidades que maximicen el juicio, los valores y la creatividad, capacidades aportadas por la IA con procesamiento masivo, velocidad, detección de patrones en ese futuro probable, donde las máquinas colaboren en tareas complejas y no reemplacen totalmente al humano.
Cuáles serán las nuevas profesiones, las que se centran en supervisión, ética, interpretación y mantenimiento de sistemas inteligentes, son los desafíos; y en lo social, pues la redistribución de la riqueza, con privacidad y autonomía que se deben exigir a las políticas públicas y con acuerdos internacionales, para que el futuro nos beneficie, clave priorizando la transparencia, la equidad y el control humano sobre las decisiones críticas. Y como recomendaciones prácticas debemos informarnos cada vez más sobre las herramientas que usamos y la toma de decisiones, con la mayor transparencia a empresas y sus regulaciones. Habrá que aprender nuevas habilidades complementarias como el pensamiento crítico, la gestión de datos, la ética en la tecnología, y la manera directa es participando activamente en los debates que hay que dar públicamente, para que la IA sea desarrollada con fines sociales y no solo comerciales. Guiarnos con lecturas y con recursos sobre seguridad y riesgos en organismos nacionales, con artículos de divulgación sobre las aplicaciones y los límites que debemos interponer para la IA.