Una actualización humana para la era digital

Garry Kasparov 4 abr 2017

Es nuestra responsabilidad encontrar maneras de añadir los valores humanos en las estructuras tecnológicas para crear el discurso en línea que queremos.

Ahora más que nunca, el tema de las noticias falsas está en primera línea de nuestro debate político. ¿Qué dio origen a su ubiquidad? ¿Cómo lo combatimos? ¿Es simplemente el resultado de la apertura de Internet que ha abierto un espacio más amplio para la comunicación?

En mi último post, comenté lo acostumbrado que estaba a los comentarios de trolls en mis artículos en línea o en las redes sociales. Pero me niego a creer que este fenómeno es un aspecto ineludible de nuestras últimas tecnologías de comunicación. No hay nada en la estructura de Internet que requiera que la verdad se pierda en un pantano de hechos alternativos y ataques personales. Puede que ahora sea más fácil que esto suceda, dado el gran volumen de información que se puede transmitir en línea, pero establecer los estándares para el discurso que queremos aún es nuestra responsabilidad. A medida que escribo mi próximo libro sobre inteligencia artificial y colaboración entre humanos y máquinas, Deep Thinking, los avances tecnológicos pueden presentar nuevos obstáculos, pero superar estos retos nos hará más creativos, ya que nos obliga a innovar en lugar de retroceder en el progreso ya logrado. Así que pensemos creativamente, a ver si podemos resolver nuestros problemas sin restringir las viejas libertades.

Una respuesta al incesable troleo en línea es cruzarnos de brazos y entender que este tipo de actividad es una parte integra de Internet y que, si queremos tener un debate donde todos los participantes están informados y son considerados, tenemos que desconectarnos y realizar un cara a cara. Creo que el enfoque más productivo es preguntarnos cómo podemos combinar los mejores elementos de la interacción humana con el extraordinario potencial de la tecnología. Recientemente, una compañía de noticias noruega mostró un ejemplo de esto mismo.

NRK ha implementado una prueba piloto sobre ciertas historias, que requiere que los lectores respondan varias preguntas de múltiple elección para poder comentar. El beneficio es doble: disuadir a los trolls profesionales haciendo que el proceso requiera más tiempo y, para los lectores, estipulando que tienen al menos una mínima comprensión de los hechos antes de comentar sin leer más que el título de la noticia. En otras palabras, el método apunta tanto a campañas de desinformación deliberadas como al peligro de una discusión no basada en pruebas reales, sino en prejuicios arraigados.

Esta intervención tiene como objetivo reintroducir estándares claramente humanos en la discusión en línea. Si queremos facilitar el debate productivo sobre el futuro de nuestra sociedad, debemos preservar un marco común de conocimientos y normas para una comunicación respetuosa. No hay ninguna razón por la que no podemos hacerlo en Internet, ya que seguimos aprovechando su poder para democratizar la información. Simplemente necesitamos encontrar nuevas maneras de integrar nuestros valores en las actuales estructuras tecnológicas. Una manera de hacerlo puede ser un test sobre noticias, pero hay incontables posibilidades esperando a ser explotadas. ¿Los moderadores humanos aún tiene un rol decisivo en la regulación de las discusiones virtuales? ¿Puedes ser entrenados los algoritmos para moderar la civilidad humana del mismo modo que filtras palabras malsonantes en los mensajes de texto y contraseñas débiles en sitios web bancarios? No pretendo tener la respuesta. Debemos preguntarnos qué valoramos y qué medidas estamos dispuestos a poner en marcha para crear el entorno en línea que queremos.

Al mismo tiempo que pensamos creativamente cómo mantener la calidad de nuestro discurso, también debemos salvaguardas su seguridad. Este es otro ejemplo de que las nuevas tecnologías nos empujan más allá de nuestros límites para encontrar problemas de creciente complejidad. ¿Cómo podemos aplicar la anterior estrategia de fusionar los mejor que las máquinas y de los humanos para hacer frente a los desafíos de seguridad? Podemos hacer que la gestión de contraseñas sea más sencilla de utilizar, ampliando el enfoque de las empresas que proporcionan software de cifrado de contraseñas para eliminar la necesidad de memorizar decenas de credenciales. O podemos hacer que el intercambio de datos personales por servicios gratuitos sea más explícito, recordando a los usuarios que se inscriben que están cediendo acceso a su información personal.

Independientemente de las medidas exactas, debemos aprovechar las fortalezas y debilidades humanas con el fin de realizar acciones que garanticen una seguridad más intuitiva y atractiva. Es decir, más humana. Ningún sistema de seguridad funcionará si la gente se niega a usarlo o si no saben cómo usarlo de manera efectiva En algunos casos, la seguridad pasa a ser una cuestión de defensa colectiva, donde una pequeña cantidad de gente puede poner a millones en riesgo. Es probable que tengamos que implementar la coerción regulatoria, del mismo modo que los padres están obligados a vacunar a sus hijos antes de enviarlos a la escuela, y por el mismo motivo. Por ejemplo, un fabricante que produce un dispositivo que puede ser fácilmente explotado y convertido en un arman en línea, debe asumir la responsabilidad. ¿Qué pasa con los usuarios individuales que no pueden actualizar sus computadoras, permitiéndoles unirse a botnets que pueden paralizar Internet? ¿Deberían estas máquinas ser eliminadas de Internet? ¿En qué momento la ciberseguridad se convierte en una cuestión de responsabilidad legal cuando otros se ponen en riesgo, como conducir ebrio?

Cada uno de nosotros tiene la responsabilidad, como ciudadanos de la era digital, de pensar en cómo contribuimos a la conversación. También somos responsables de mantener segura nuestra información y, por extensión, el sistema. A menudo, estas responsabilidades se entrelazan, como cuando Facebook usa la información que recopila de los usuarios para determinas qué noticias deben aparecer en sus feeds de noticias. En cuanto a seguridad, hemos cedido autoridad sobre nuestros datos personales, permitiendo que sean explotados por terceros. Pero, quizás lo más importante, nos hemos vuelto menos tolerantes con las opiniones que entran en conflicto con las nuestras, ya que la información cada vez se personaliza más para nosotros.

 Las consecuencias negativas de tales conveniencias algorítmicas pueden no parecer particularmente peligrosas, pero con el paso del tiempo pueden cambiar el tejido de nuestra sociedad, tanto en línea como fuera de ella. Sin embargo, si nos levantamos a tiempo, estos desafíos pueden proporcionar la oportunidad de perfeccionar nuestras habilidades humanas de resolución de problemas. Los problemas seguirán surgiendo, pero debemos verlos bajo una luz positiva, una oportunidad de demostrar que todavía tenemos ventaja sobre la tecnología que diseñamos.

--> -->