Daniel Low, experto en inteligencia artificial, advierte sobre los riesgos y desafíos de su avance. Destaca la necesidad de regulaciones claras para evitar desinformación y proteger la privacidad. Low también señala el impacto en el empleo y la importancia de la supervisión humana en decisiones críticas relacionadas con la IA.
La mirada de Daniel Low sobre la inteligencia artificial y sus riesgos
Daniel Low, experto argentino en inteligencia artificial y docente en la Universidad de Buenos Aires, analizó los desafíos y posibles riesgos que plantea el avance tecnológico en este campo. Su perspectiva pone énfasis en la necesidad de regulaciones claras y en una mayor concienciación sobre el impacto de la IA en distintos sectores.
Low advirtió sobre el potencial de la inteligencia artificial para influir en la sociedad, no solo en ámbitos laborales, sino también en la información y la seguridad. En sus declaraciones, manifestó que “es importante comprender que la IA no es solo una herramienta, sino un sistema con el que interactuamos de manera constante, y que puede tener consecuencias no previstas si no se gestiona adecuadamente”.
Los avances tecnológicos han llevado a una automatización creciente en diversas áreas, desde el periodismo hasta la atención al cliente. Sin embargo, Low señaló que la falta de regulación podría generar escenarios en los que la IA sea utilizada con fines desinformativos o con intereses particulares que afecten a los usuarios sin que estos sean plenamente conscientes de ello.
El impacto en el empleo y la privacidad
Uno de los puntos claves que abordó Low es la influencia de la inteligencia artificial en el mercado laboral. Argumentó que, si bien la automatización puede aumentar la eficiencia, también existe la posibilidad de una pérdida significativa de empleos en ciertos sectores. “Ya estamos viendo cómo algunas tareas rutinarias están siendo reemplazadas por sistemas automatizados, lo que plantea preguntas sobre el futuro del trabajo y la necesidad de políticas de adaptación”, explicó.
Además, la capacidad de la IA para analizar enormes volúmenes de datos genera preocupaciones sobre la privacidad. Low destacó que “las grandes empresas tecnológicas tienen un acceso sin precedentes a la información personal de los usuarios, lo que abre un debate sobre la protección de datos y el consentimiento en el entorno digital”. Como respuesta a estos desafíos, instó a la creación de mecanismos que garanticen una mayor transparencia en el uso de la inteligencia artificial.
Por otro lado, en relación con la manipulación de la información, alertó sobre el crecimiento de tecnologías como los deepfakes, que permiten la creación de imágenes o videos falsificados con una calidad que dificulta su detección. “Esto cambia la manera en que consumimos información y requiere una respuesta tanto de los usuarios como de las plataformas digitales”, añadió.
Debate sobre la regulación y el futuro de la IA
Low resaltó la necesidad de establecer normativas claras que permitan mitigar riesgos sin frenar el desarrollo tecnológico. Sostuvo que “la regulación de la IA debe ser un tema prioritario en las agendas gubernamentales, porque su impacto es transversal y afecta tanto a pequeñas empresas como a grandes corporaciones”.
En este sentido, mencionó ejemplos como la Unión Europea, que ha propuesto regulaciones enfocadas en la transparencia y la rendición de cuentas para los sistemas de inteligencia artificial. Sin embargo, destacó que aún existen diferencias sustanciales en el enfoque de distintos países, lo que dificulta la implementación de normas internacionales.
El experto también destacó la importancia del factor humano en la toma de decisiones basadas en IA. “Más allá de la automatización, las decisiones críticas deben seguir contando con la supervisión humana para evitar sesgos o errores que puedan derivar en consecuencias graves”, afirmó.
Low concluyó que la inteligencia artificial seguirá evolucionando, y con ello, también lo harán los desafíos que plantea. ¿Cuáles serán los límites de su implementación? ¿Cómo se equilibrará el desarrollo tecnológico con la necesidad de un control responsable? Las respuestas a estas preguntas marcarán el futuro de la interacción entre la sociedad y la IA.