back to top
More

    “Panic show” sobre la inteligencia artificial

    Tiempo de lectura: 7 minutos

    Mientras la inteligencia artificial (IA) es percibida como una herramienta poderosa para la propagación de fake news, existe otra forma de desinformación en crecimiento y menos discutida: las fake news sobre la propia IA. La exageración mediática no solo alimenta el miedo. También genera un terreno fértil para malentendidos que pueden afectar tanto la regulación y la adopción responsable de estas tecnologías. Al perpetuar una narrativa alarmista, se corre el riesgo de desviar la atención de los verdaderos desafíos y oportunidades que representa.

    En mayo de 2023, durante una conferencia sobre IA y sistemas de armamento, el jefe de pruebas y operaciones de la Fuerza Aérea de los Estados Unidos, Tucker Hamilton relató una historia impactante: un dron autónomo, impulsado por la inteligencia artificial, había decidido atacar a su propio operador.

    El relato, tan inquietante como cinematográfico, se propagó rápidamente por redes sociales, sembrando pánico y desconfianza hacia la tecnología. Poco después, varios medios de comunicación señalaron que se trataba de una simulación, aunque con cierta ambigüedad. Un ejemplo de esto fue la nota publicada por Perfil Un dron comandado por inteligencia artificial ‘asesinó’ a su operador. No solo se optó por elegir un título sugerente, sino que también se tomó la decisión de aclarar varios párrafos después que en realidad eso no había sucedido. No hubo dron, ni tampoco simulación. 

    No había nada.Todo era un experimento mental hipotético presentado por Hamilton para ilustrar posibles riesgos éticos en el diseño de sistemas autónomos. Pese a que nada de eso sucedió, el impacto fue real: las redes sociales amplificaron el relato y los medios lo reprodujeron con títulos alarmantes. 

    "El hombre bicentenario": la famosa película basada en el cuento del científico y escritor Isaac Asimov, explora desde una mirada humanística los avances de la tecnología en la sociedad.
    “El hombre bicentenario”: la famosa película basada en el cuento del científico y escritor Isaac Asimov, explora desde una mirada humanística los avances de la tecnología en la sociedad.

    ¡Cuidado! Inteligencia artificial suelta

    Ese miedo no es nuevo ni se inició con ChatGPT. En junio del 2017, mismo mes en que salió el paper seminal Attention is All You Need  que introdujo a los Transformers -la “T” de “GPT”-, otra historia sensacionalista inundó titulares. En ese entonces se había informado que dos robots de Facebook desarrollaron su propio lenguaje y tuvieron que ser desconectados para proteger a la humanidad. En realidad, se trataba de chatbots que simplemente optimizaban su lenguaje para negociar objetos virtuales, generando frases extrañas como parte de sus ajustes algorítmicos. 

    Te recomendamos leer: VERONICA BRASESCO “PARA VENCER AL BURNOUT HAY QUE VOLVER A DESEAR”

    Varios medios de comunicación transformaron este experimento en un relato alarmista que reforzó el temor hacia estas tecnologías. El periódico sensacionalista británico The Mirror publicó un artículo al respecto titulado La Inteligencia Robótica es Peligrosa: la advertencia de un experto después de que la IA de Facebook ‘desarrolle su propio lenguaje’. También, tabloides como The Sun (que acompañó su nota con imágenes de androides aterradores) difundieron historias alarmistas. Incluso, otros medios de calidad reconocida como The Independent, The Telegraph y Forbes publicaron artículos con títulos preocupantes que exageraron la situación.

    Historias como esta recuerdan lo ocurrido en 1938, cuando Orson Welles, con su transmisión radial de La guerra de los mundos, que desató una histeria colectiva al narrar una invasión alienígena ficticia. Lo que entonces se interpretó como una amenaza real hoy resurge en nuevas formas, donde el miedo a lo desconocido encuentra su vehículo en la inteligencia artificial.

    Una tecnología que todavía no cumple con la narrativa sensacionalista que la rodea

     Durante años, se predijo que los deepfakes- videos, imágenes o audios generados mediante inteligencia artificial que imitan de manera realista la apariencia o voz de una persona, al punto de que se dificulta distinguirlos del material auténtico-inundarían internet, desestabilizarían democracias y sembrarían caos en eventos clave, como las elecciones estadounidenses. 

    En 2021 la presidenta y cofundadora del Observatorio del Impacto Ético y Social de la IA (OdiseIA), Idoia Salazar advirtió sobre las consecuencias que traería la falta de regulación de estos contenidos: “Dentro de dos años va a ser imposible saber lo que es realidad y lo que no”. Han pasado tres años y medio desde esta profecía y solo tenemos una foto del Papa Francisco con una campera acolchada y unas elecciones en Estados Unidos que transcurrieron con total normalidad y sin la presencia de deepfakes circulando masivamente e interfiriendo en su devenir.

    "Simone" (S1m0ne, 2002), es una película protagonizada por Al Pacino que muestra las dificultades que atraviesa un destacado director de cine en decadencia, cuando sus peliculas se vuelve un éxito por Simone, la actriz que lleva al estrellato pero que en realidad es un programa computarizado.
    “Simone” (S1m0ne, 2002), es una película protagonizada por Al Pacino que muestra las dificultades que atraviesa un destacado director de cine en decadencia, cuando sus películas se vuelven un éxito por Simone, la actriz estrella del momento que en realidad es un programa computarizado.

    Hany Farid es profesor de la Universidad de California en Berkeley y se dedica a estudiar la propaganda digital y la desinformación. “¿Cambió la IA las elecciones? No. Pero ahora, como sociedad, vivimos en una realidad alternativa. … Estamos en desacuerdo sobre si dos más dos son cuatro”, confirmó en una entrevista a The Washington Post. Estas declaraciones contrastan con los pronósticos que había hecho en 2018, cuando se desempeñaba como experto en análisis forense digital del Dartmouth College, lugar donde se acunó el término ‘inteligencia artificial’.“Espero que aquí,en EE.UU, empecemos a ver estos contenidos (refiriéndose a los deepfakes) en las próximas elecciones legislativas y nacionales de dentro de dos años”.

    En octubre de este año, cuando las elecciones se acercaban sin rastro de deepfakes, Miles Taylor, exjefe de gabinete del Departamento de Seguridad Nacional de EEUU y cofundador de la firma estratégica Washington Office, hipotetizó en un ensayo para la revista Time sobre un posible November Surprise que sembraría dudas y desconfianza después de los resultados y desestabilizaria el proceso y la percepción pública. Además, Blinken dijo que una “avalancha maliciosa de desinformación generada por IA” amenaza las democracias. Sin embargo, cuando las urnas se abrieron en 2024, no hubo rastro de la tan temida avalancha de videos generados artificialmente.

    Te recomendamos leer: ¡CORTENLÁ! TENGO DERECHO A LA DESCONEXIÓN DIGITAL

    La IA es una “amenaza” inevitable

     Estas premoniciones se sostienen en el tiempo. De hecho, el Foro Económico Mundial, advirtió en el informe de Riegos Globales 2024 que la desinformación sería “la principal amenaza global para la cohesión social en los próximos dos años”. Siempre faltan dos años. El contraste entre las predicciones y la realidad pone en evidencia una lección importante: el impacto de las tecnologías emergentes suele ser mucho más difícil de predecir de lo que parece.

    Más allá de que las predicciones alarmistas no se cumplieron, el potencial disruptivo de estas tecnologías sigue vigente, y el impacto de los deepfakes parecen, hasta ahora, haber subestimado el poder de estrategias más rudimentarias y directas para desinformar y que no requieren herramientas de IAG. Resulta curioso observar cómo, mientras acusamos a la IA de ser capaz de generar fake news, nosotros mismos generamos fake news sobre la IA. Algo similar ocurre con los “sesgos algorítmicos”. Le recriminamos a un ente que aprendió de nuestros datos el hecho de que tiene sesgos, como si nosotros mismos no los tuviéramos.

    Por otro lado, si la democracia está atravesando una crisis, es difícil atribuir esa fragilidad a una herramienta como la IAG, que hasta ahora no ha desempeñado un papel significativo en su deterioro. Al final, si la inteligencia artificial va a ser buena generando noticias falsas es porque está aprendiendo de los mejores.

    Skip to content