fbpx

Generando confianza en la Inteligencia Artificial

¿Cómo creamos confianza en la inteligencia artificial en un mundo que cada vez depende más de ella?

Cara de una persona construida por computadora.

Es necesario generar confianza en la inteligencia artificial. / Foto: Pxfuel

EurekAlert | SINGAPORE MANAGMENT UNIVERSITY

Escucha este artículo


Read in english: Engendering trust in an AI world

¿Te imaginas un mundo sin listas de reproducción personalizadas de Spotify, canales de redes sociales seleccionados o videos de gatos recomendados en las barras laterales de YouTube? Estas comodidades modernas, que fueron posibles gracias a la inteligencia artificial (IA), también presentan una propuesta aterradora: que las máquinas podrían terminar sabiendo más sobre nosotros que nosotros mismos.

Según la encuesta de la Agenda CIO 2019 de Gartner, el 37 por ciento de los Directores de Información (CIO) a nivel mundial ya han implementado tecnología de IA en sus organizaciones. La rápida adopción de las soluciones de inteligencia artificial hace que las organizaciones administren y usen los datos, que podrían consistir en información confidencial, privada y personal.

Hablando en el panel de la conferencia sobre 'IA y protección de datos: nuevos enfoques regulatorios', el profesor asociado de la Singapore Management University (SMU) Warren Chik dio su perspectiva sobre cómo conceptualizar la confianza en una era digital. "Cuando se trata de asuntos como los datos personales, no tratamos a la IA como un dios. Por lo tanto, no podemos confiar en la fe, que es lo que requiere la religión. Necesitamos algo más sustancial que eso ", dijo.

En su charla titulada 'Inteligencia artificial y protección de datos en Singapur: confianza de los consumidores, seguridad organizacional y regulación gubernamental', el profesor Chik explicó que para generar confianza en una solución digital, es crucial que los usuarios se involucren en los problemas. "La gente tiende a temer lo desconocido, y es difícil confiar en algo que no conoces".

Moderada por el profesor David Llewelyn, vicedecano de la Facultad de Derecho de SMU, la mesa redonda contó con la presencia del profesor Ian Walden, Centro de Estudios de Derecho Comercial, Universidad Queen Mary de Londres; Profesora Asociada Yip Man (cuyo documento fue presentado por el Profesor Asociado Alvin See en su nombre); así como los comentaristas, el Sr. KK Lim, Jefe de Ciberseguridad, Privacidad y Protección de Datos, Eversheds Harry Elias; y el Sr. Lanx Goh, Asesor Jurídico Superior (Privacidad y Ciberseguridad) y Oficial de Protección de Datos Globales, Klook Travel Technology.

Lea también: Las 5 mejores aplicaciones para editar fotos en tu smartphone

IA como influenciador

La capacidad de un sistema de IA para realizar perfiles personales podría cambiar fundamentalmente la personalidad digital de un usuario, dijo el profesor Chik, destacando una causa de preocupación para muchos.

"Si bien una IA contiene información específica como su nombre y dirección, también forma su propio conocimiento de su identidad y de quién es usted como persona", dijo el profesor Chik, citando algoritmos utilizados por las redes sociales para recopilar datos sobre su identidad, intereses y hábitos de navegación. A partir de esos datos, el sistema crea un perfil de quien cree que eres.

"Estos algoritmos, que pueden ser correctos o incorrectos, le brindan información, artículos y enlaces, y como resultado produce un efecto en su pensamiento. En otras palabras, la IA puede moldear el comportamiento humano, y este es un riesgo que incomoda a mucha gente", dijo el profesor Chik. La amenaza es muy real, enfatizó, y señaló que los reguladores han identificado claramente la necesidad de regular el uso de datos en IA.

En Singapur, por ejemplo, la Ley de Protección contra las Falsedades y Manipulación en línea (POFMA) contiene disposiciones penales sobre la creación, uso y alteración de bots para difundir información falsa.

Legislación de protección de datos: un acto de equilibrio

Al tratar de regular los datos, siempre hay dos objetivos en competencia al regular el uso, la recopilación y el procesamiento de datos personales. " El primer objetivo es proteger al interesado, y el segundo es promover la innovación " , dijo la profesora See, quien presentó el documento de la profesora Yip en su nombre.

De los diferentes tipos de protección para los interesados que existen hoy en día, la opción más comúnmente disponible es el uso de contratos. El artículo de la profesora Yip señala que "El problema con tratar de regular el uso de datos a través de términos y condiciones es que, en la mayoría de los casos, la gente no lee [la letra pequeña legal]". El consentimiento otorgado, por lo tanto, no es genuino.

El profesor Llewelyn, quien moderó la mesa redonda, agregó que el significado del consentimiento es un tema que necesita ser explorado en mayor profundidad. "Si un consumidor aceptara un contrato en línea en su totalidad sin leerlo, ¿puede decirse de manera realista que él o ella ha aceptado todos los términos y condiciones y ha dado su consentimiento total?" preguntó. "Quizás debería darse un reconocimiento legal a la naturaleza automática del compromiso contraído en dichos contratos".

Una limitación más crítica del contrato como protección para el interesado es que el contrato solo rige la información que se comparte entre las dos partes vinculadas por este. Por ejemplo, si Facebook transfiriera los datos personales de un usuario a un tercero no obligado por el contrato, la firma de terceros no estará obligada a proteger la información del usuario.

Lea también: Histórica firma de acuerdo de paz entre EE.UU. y talibanes

Protección de datos por diseño.

La Ley de Protección de Datos Personales (PDPA) de Singapur, que regula los datos personales mediante el uso de la legislación, se describe como un régimen ligero que adopta un enfoque fuertemente equilibrado entre la necesidad de protección de la privacidad y el interés de la innovación empresarial.

El trabajo de la profesora Yip reconoce que existe cierto nivel de tensión entre los dos objetivos mencionados anteriormente. El tema en cuestión, por lo tanto, es cómo lograr un equilibrio entre los derechos individuales y la privacidad, y el interés competitivo del crecimiento económico y la innovación, señaló.

Al final del día, la atención se centra en prevenir, en lugar de tratar de remediar una violación de la privacidad de los datos. "Se trata de reconocer los derechos del individuo y la privacidad de sus datos, y al mismo tiempo, la necesidad de que las organizaciones recopilen, usen y divulguen datos personales para fines legítimos y razonables", agregó el documento de la profesora Yip.

Otra solución que la profesora Yip exploró en su artículo fue el uso de la tecnología en lugar de la ley para proteger a los interesados. En algunos casos, la privacidad puede integrarse directamente en el diseño y la operación de sistemas operativos, procesos de trabajo, infraestructura de red e incluso espacios físicos. Sin embargo, destaca que esta solución no es perfecta porque va en contra del interés de las empresas que aprovechan los datos para obtener ganancias y construir salvaguardas de privacidad sólidas en sus sistemas y modelos comerciales.

We use cookies to improve our website. By continuing to use this website, you are giving consent to cookies being used. More details…