La inteligencia artificial está escuchando, y eso es imparable, pero todos debemos salvaguardar la privacidad de los niños.
“Hay demasiadas cosas en las que tenemos que pensar todos los días, demasiadas cosas nuevas que tenemos que aprender. Nuevos estilos, nueva información, nueva tecnología, nueva terminología ... Pero aún así, no importa cuánto tiempo pase, no importa lo que ocurra en el ínterin, hay algunas cosas que nunca podemos asignar al olvido, recuerdos que nunca podemos borrar. Permanecen con nosotros para siempre, como una piedra de toque ". - Haruki Murakami," Kafka on the Shore "
Según un informe (sitio en inglés) reciente de Microsoft , los usuarios de asistentes digitales, como Alexa de Amazon y Siri de Apple, continúan premeditando la conveniencia sobre posibles problemas de privacidad. El ochenta por ciento informa estar satisfecho con la utilidad que proporcionan estos dispositivos; solo la mitad de ese porcentaje (41%) está preocupado por la seguridad de los datos que adquieren. Como he escrito anteriormente, esta es una compensación que cada uno de nosotros debe sopesar en la era digital, y no hay respuestas correctas o incorrectas. Pero hay decisiones informadas y no informadas, y sospecho que estos encuestados no consideraron adecuadamente cómo podrían usarse los datos que alimentan a sus asistentes virtuales. Una vez que sus datos se introducen en los algoritmos, la cadena de propiedad se rompe y usted pierde el control; para los niños, esto es una carga injusta y un riesgo potencial para la seguridad.
Incluso si confía en las empresas que recopilan sus datos y los algoritmos que los analizan y aplican, existe la preocupación de que los piratas informáticos obtengan acceso a ellos. Podemos entender lo que un grupo de piratería criminal quiere con nuestros números de tarjeta de crédito e información de identidad, pero nadie puede estar seguro de qué daño resultará de la explotación del análisis de inteligencia artificial de nuestro comportamiento, nuestros datos biométricos y otros datos confidenciales. Los actores estatales podrían usar estos detalles para robar secretos, interferir en las elecciones o manipular o chantajear a los funcionarios. Los estados represivos ya están utilizando herramientas avanzadas de piratería para atacar a los disidentes y otros grupos.
Sus datos personales que alimentan las máquinas de IA
Sigue habiendo razones inmediatas para desconfiar de los asistentes digitales. El modelo de negocio vigente depende de las continuas mejoras en su precisión e inteligencia. Los datos que ingresan se asimilan en el algoritmo de aprendizaje de la máquina, lo que ayuda a la IA a evitar errores pasados y hacer mejores predicciones. En un ciclo recurrente, el consumidor obtiene los beneficios de la tecnología, mientras proporciona continuamente material para su mejora. En la época del informe de Microsoft citado anteriormente, se reveló que Amazon tiene un equipo dedicado de empleados que escuchan grabaciones de voz hechas por Alexa, para capacitar al software para que funcione mejor. La respuesta de Amazon fue enfatizar que solo registra "una muestra extremadamente pequeña" de grabaciones para mejorar la experiencia del consumidor. Sin embargo, inquietantemente, incluso los usuarios que opten por no recibir sus grabaciones en el sistema podrían estar sujetos a este proceso de revisión manual. Este mes, Facebook también admitió que los contratistas que pagan para escuchar y transcribir conversaciones de Messenger. Entonces Apple confesó que los empleados humanos estaban escuchando grabaciones de Siri (sitio en inglés), según los informes, incluidos los usuarios que tienen relaciones sexuales. En otras palabras, la información que le da a un asistente digital no solo va a la caja negra de una IA. Muy bien podría ser reproducido por otros seres humanos, sin mencionar de una manera que se pueda rastrear hasta usted.
Tendemos a estar más preocupados porque los humanos tengan acceso a nuestros datos, pero ¿qué pasa con los algoritmos mismos? El problema no se limita a esta clase particular de productos, como los asistentes digitales, sino que se vincula con consideraciones éticas mucho más amplias sobre la IA. Los bits de información que cedemos a las máquinas inteligentes pueden ingresar como paquetes discretos, pero luego dejan de ser identificables, subsumidos por la red. Ya no se trata simplemente de tener los derechos y regulaciones vigentes que otorgan a los consumidores la propiedad sobre sus datos. Hoy, nuestra información se está incorporando perpetuamente en algoritmos complejos, a menudo los que ya no son transparentes incluso para los ingenieros que los construyeron.
Nuestros puntos de datos individuales ayudan a fortalecer y expandir estos sistemas, pero en el proceso perdemos nuestra propiedad sobre ellos. En el caso de la IA, no hay forma de cambiar de opinión y reclamar la posesión de la propiedad digital. Cabe destacar que estas consideraciones no son puramente filosóficas. Tomemos la aprobación de la Unión Europea del Reglamento General de Protección de Datos (GDPR) el año pasado: inmediatamente surgen problemas muy tangibles de implementación. ¿Cómo hacen cumplir los reguladores el "derecho al olvido" si los datos en cuestión se han incorporado a los procesos de aprendizaje de una IA?
Los pasos en falso de los niños deben seguir siendo suyos.
También podríamos considerar las implicaciones concretas para diferentes grupos, como la generación que crece en medio de esta tecnología. Como se describe en un artículo de Wired de lectura obligatoria (sitio en inglés), se enfrentarán a dificultades que ninguna generación anterior ha encontrado. Por un lado, tendrán extensos registros digitales que documentan sus vidas desde la infancia, detrás de ellos para cada entrevista de trabajo y solicitud de préstamo, sin mencionar las posibles fechas.
Los asistentes digitales y otras IA no explican a los niños o adolescentes los impactos duraderos en los datos que un humano podría aclarar pacientemente. Capturan la información con indiferencia a ese tipo de consideraciones. La información que recopilan se puede conectar a algoritmos que dictan resultados sociales importantes. Un estudiante que fue atrapado haciendo trampa en una grabación de video, por ejemplo, podría continuar siendo recordado y penalizado por este paso en falso hasta la edad adulta, lo que provocó un círculo vicioso de bajo rendimiento e infracciones adicionales. Presumiblemente, nos gustaría construir sociedades que permitan a los niños el espacio para cometer errores y aprender de ellos. Y, sin embargo, al poner gran poder en manos de la IA, preparamos el escenario para lo contrario:
Al pensar en estos temas, debemos equilibrar, como siempre, las increíbles capacidades de estas tecnologías con sus desventajas correspondientes. Deberíamos continuar mejorando los sistemas de IA para cumplir mejor nuestros objetivos. A medida que estas máquinas se vuelvan más inteligentes y eficientes, se convertirán en socios cada vez más valiosos para ayudarnos a construir sociedades vibrantes y prósperas.
Los problemas discutidos anteriormente son graves y requieren atención urgente. No podemos encontrar las soluciones correctas si no podemos mantener nuestros valores fundamentales al frente y al centro de la discusión. La regulación debe apuntar a preservar un compromiso con la privacidad individual, de manera actualizada para la era digital. (Una batalla que ha estado sucediendo al menos desde la invención del teléfono, ya que investigaré más en mi próxima publicación de blog). El tremendo poder de la IA es encontrar conexiones en datos que son invisibles para la mente humana, por lo que hay inevitablemente serán consecuencias no deseadas.
Además de considerar los avances tecnológicos, las soluciones ahora deben ser más globales, para que coincidan con la escala de la tecnología que abordan. Y deben esforzarse por preservar estos derechos sin bloquear un camino hacia el progreso tecnológico continuo. Como padre con hijos pequeños, estoy mucho más emocionado que temeroso de que mis hijos crezcan en este momento revolucionario. Pero para asegurarnos de que cosechen los beneficios de las poderosas herramientas digitales a su alcance, debemos reconocer sus consecuencias a largo plazo, especialmente para aquellos demasiado jóvenes para tener voz.