Imagen demo
Sala de prensa
Noticia
Noticias

Borja Adsuara: “No hay que tener miedo a la inteligencia artificial, sino a la maldad humana”

09/03/2022
Imagen de la noticia

“A diferencia del sistema anglosajón, Europa se resignará a poner las normas en un campo de juego, pero sin ser jugador. Seremos los campeones de la regulación, pero no de la innovación”. Con estas palabras ha explicado Borja Adsuara, experto en Derecho, Estrategia y Comunicación Digital y director de Divulgación de OdiseIA, cómo el sistema de código cerrado europeo está generando que solo se pueda llevar a cabo lo expresamente permitido, frente al anglosajón, de código abierto. “Creo que el reglamento europeo de Inteligencia Artificial es transversal, pero, hasta que no se aplique a cada uno de los sectores y se comprueben los usos de riesgo, es muy genérico e incluso peligroso”.

Adsuara ha analizado los peligros, los riesgos y los límites de la Inteligencia Artificial (IA) para la privacidad en el marco del encuentro ‘Privacidad, protección de datos e inteligencia artificial. ¿Una ecuación imposible?’ celebrado en la Universidad. Una jornada en la que el experto ha invitado a perder el miedo a las tecnologías: “No hay que tener miedo a la inteligencia artificial, sino a la maldad humana”.

Por este motivo, para dar seguridad a la sociedad civil, “se debería realizar no solo un análisis jurídico y ético de los algoritmos, sino también de transparencia por parte de las Administraciones Públicas”. En este sentido, el director de Área de OdiseIA ha apuntado que “la IA debe usarse para prevenir, no solo para sancionar. Debe divulgarse cuál es el sentido de la norma y cuál el de la sanción”. “¿Qué ocurriría si la Agencia Española de Protección de Datos se dedicase a vigilar exhaustivamente con IA, no solo a las empresas privadas, sino también a la Administración Pública? Hay que obligar a las empresas y las Administraciones a ser transparentes y a usar la IA no solo para la sanción, también para evaluación de políticas públicas”.

Junto al experto en Derecho, Estrategia y Comunicación Digital ha participado el director de Regulación y Derechos de OdiseIA, Lorenzo Cotino, quien ha explicado la importancia de la responsabilidad individual, que nos obliga a cambiar de modelo: “No todo puede pasar por nuestro consentimiento, esto ha debilitado nuestra privacidad en las últimas décadas”. Para el catedrático de Derecho Constitucional de la Universidad de Valencia “no solo se trata de implantar estas nuevas técnicas, sino que, en el caso de que se manejen datos anonimizados inferidos con técnicas de inteligencia artificial, hay que implementar más garantías”.

Por su parte, la presidenta de la Asociación de Internautas, Ofelia Tejerina, ha analizado la importancia de controlar y seleccionar qué datos se quieren compartir. “Tenemos que saber a quién estoy dando mis datos. Como usuario, podemos ‘jugar’ con el algoritmo para mostrar aquello que queremos y lo que no”, ha explicado. Asimismo, en línea con los otros ponentes, Tejerina ha destacado la importancia de implementar un marco regulatorio y de garantías que otorgue seguridad a los internautas. “Las sanciones han hecho que la sociedad civil haya abandonado la confianza en grandes tecnológicas, lo que supone una pérdida de reputación y de usuarios, así como la consecuente renovación de la imagen por parte de la compañía”.

La jornada también ha contado con la participación de Richard Benjamins, Chief AI & Data Strategist en Telefónica; Gabriel López Serrano, director de Asuntos Gubernamentales y responsable de IA de Microsoft; Manel Carpio, Risk Advisory Partner de Deloitte; y Miguel Ángel Liébana, de Human Trends, en la mesa redonda titulada 'Los sectores privado y público, la IA y la privacidad: retos de presente y futuro.

La rectora de la Universidad, Rosa Visiedo, ha clausurado esta jornada señalando que la transformación digital que estamos viviendo es ya irrenunciable. “Debemos humanizar la tecnología, acercarla a la sociedad humana, y aprovechar todos los avances para lograr nuevos descubrimientos que contribuyan al bien común”, ha apuntado. En este sentido, Visiedo ha asegurado que “la tecnología debe ser una fuerza para hacer el bien; siempre imprime un sentido, puede generar avances y soluciones técnicas”. Sin embargo, ha subrayado, “puede generar nuevos problemas y conflictos como la privacidad de las personas, incluso la reputación y la dignidad, por eso es imprescindible proteger a las personas del mal uso”.


My Identity

Durante este encuentro se ha presentado ‘My Identity’, la primera aplicación que permite proteger datos, identidad y reputación digital por 1 euro al mes; una herramienta impulsada por Human Trends, en colaboración con OdiseIA. ¿Cómo funciona? Primero se verifica que el usuario es quien dice ser con un selfie, para no entregar los datos a otro usuario. Después, se detectan todos los documentos y las páginas webs en las que se muestran los datos personales, si las contraseñas están filtradas en internet e, incluso, las fotos públicas en las que aparece el usuario. Finalmente, el usuario puede decidir si quiere que se gestione la retirada de algún contenido no deseado de internet. Para mantener la protección, el sistema realiza una búsqueda continuada de los datos para estar alerta ante cualquier nueva aparición. "Con esta aplicación queremos que los usuarios vuelvan a retomar el control de su identidad digital a un precio accesible para cualquier persona interesada", ha explicado Miguel Ángel Liébana, miembro de Human Trends.

Palabras clave Inteligencia Artificial Privacidad Protección de Datos OdiseIA Borja Adsuara