Imagine recibir un correo electrónico que le indica que haga clic en lo que cree que puede ser una dirección URL sospechosa. Para comprobar que es legítimo, llamas al remitente del correo electrónico, cuya voz conoces, y luego tienes una conversación telefónica con él en la que te aseguran que todo está en orden.
Y luego resulta que todo es generado por inteligencia artificial: el correo electrónico y la voz clonada del remitente del correo electrónico.
Ese es un escenario expuesto por el innovador de Silicon Valley Kevin Surace, en el foro RF Economic Outlook celebrado en Gran Caimán la semana pasada, con el que dijo haberlo encontrado recientemente.
Dice que, independientemente de las regulaciones sobre IA que se establezcan, siempre habrá “malos actores” –ya sean estafadores y ciberdelincuentes o ciertos gobiernos– que las ignorarán.
Regulando la IA
La Comisión Europea aprobó a principios de este mes las primeras regulaciones del mundo para la inteligencia artificial, con su Ley de IA, que describe como el “primer marco legal sobre IA”.
“La Ley de IA tiene como objetivo proporcionar a los desarrolladores e implementadores de IA requisitos y obligaciones claros con respecto a usos específicos de la IA. Al mismo tiempo, el reglamento busca reducir las cargas administrativas y financieras para las empresas, en particular las pequeñas y medianas empresas”, según un comunicado de la Comisión Europea.
Surace dijo: “Lo único que diré al respecto es que vamos a promulgar muchas leyes en todo el mundo sobre cómo controlar esto, pero los malos actores no van a prestar atención”, y agregó que China, Rusia, Corea del Norte e Irán seguirán su propio camino en lo que respecta a la tecnología.
“La otra cosa es que hay malos actores en el espacio de la ciberseguridad que ya han manipulado estos modelos de lenguaje aprendido en su propia versión de código abierto, para crear correos electrónicos de phishing ilimitados que no se pueden distinguir de nada. Tenemos leyes contra la creación de deepfakes que no están etiquetados, pero ellos crean deepfakes y no los etiquetan”, dijo.
Citó una situación que ocurrió recientemente cuando un miembro del personal de una empresa multinacional de Hong Kong transfirió 25 millones de dólares a la cuenta de un estafador después de que se le ordenara transferir los fondos en una llamada de Zoom que, como se supo más tarde, presentaba falsificaciones del director financiero de la empresa. funcionario y otros compañeros.
Dijo que se dio cuenta con certeza de que estaba lidiando con una estafa de phishing de IA durante su llamada telefónica con la persona que pretendía ser secretaria de un inversionista, cuando le preguntó si le había comentado el asunto a un colega en su oficina llamado Matt. “¿Cuál es el apellido de Matt?” preguntó el robot de IA.
“Le envié esto al Matt real y le dije que tenían un problema real”, dijo Surace a la audiencia.
Y añadió: “Puedes promulgar todas las políticas que quieras, pero no puedes detener a los malos actores, porque a ellos no les importan tus políticas”.
Desafíos geopolíticos
Otro orador en el foro, que este año se centró en la IA y el cambio climático, fue la autora y profesora de derecho Anu Bradford. Llevó a los asistentes a través de “un recorrido por los desafíos geopolíticos y geoeconómicos” que enfrenta el mundo, y señaló que existen preocupaciones reales sobre el uso de falsificaciones profundas generadas por IA para influir en los resultados de las elecciones.
Dado que la mitad de la población mundial acudirá a las urnas para las elecciones de 2024, “la IA puede alterar el resultado de estas elecciones”, dijo, mediante la manipulación de la información y el uso de falsificaciones profundas “que están alterando nuestro sentido de la realidad y nuestra capacidad de tomar decisiones”. buenas elecciones electorales”.
Bradford, autor del libro ‘Digital Empires: The Global Battle to Regulate Technology’, dice que cada vez hay más consenso global en que la gobernanza de la IA es necesaria, “pero no hay consenso global sobre cómo sería ese modelo de gobernanza”.
Citó tres modelos: el modelo estadounidense impulsado por el libre mercado, el modelo chino impulsado por el Estado y el modelo europeo impulsado por los derechos.
Con el modelo estadounidense, el gobierno desempeña un papel menor, dejando que las empresas tecnológicas se regulen a sí mismas de manera efectiva, señaló, mientras que en China, el gobierno comunista, centrándose en hacer de su país una superpotencia tecnológica, está utilizando recursos estatales para lograr ese objetivo. mientras utiliza IA para vigilancia y censura.
El modelo en Europa se basa en “la noción de una transformación digital centrada en el ser humano, la protección de los derechos fundamentales de las personas, la preservación de las estructuras democráticas de la sociedad y la noción de una transformación digital más justa”.
El mundo ya ha seguido los pasos de las regulaciones europeas en tecnología, con la adopción de los requisitos del Reglamento General de Protección de Datos de la UE, o GDPR.
Bradford predice que el modelo regulatorio estadounidense impulsado por el mercado está perdiendo, y la opinión pública se está volviendo contra lo que muchos ven como un exceso de alcance por parte de las gigantescas empresas tecnológicas. Y si bien el modelo europeo puede ser atractivo, no impulsa la innovación y la aplicación de sus regulaciones no es estricta.
Mientras tanto, un modelo impulsado por los derechos nunca atraerá a los gobiernos autoritarios, que no están demasiado preocupados por las cuestiones de privacidad y estarán dispuestos a adoptar el enfoque –y la tecnología– utilizado por China.
“China ha demostrado al mundo que la libertad no es necesaria para la innovación”, dijo Bradford. “Han logrado crear una economía tecnológica próspera sin ser libres”.
Y añadió: “Entonces, a menos que podamos demostrarnos a nosotros mismos y al resto del mundo que existe una forma liberal y democrática de gobernar la tecnología, nos vemos obligados a admitir que la IA y otras tecnologías pueden ser gobernadas por autoritarios, por lo que los gobiernos democráticos están destinados a fracasar en el mismo esfuerzo, o [la IA está] gobernada por empresas de tecnología.
“Lo que significa que los verdaderos imperios digitales son los autoritarios o las empresas tecnológicas, y esa no es una conclusión que cualquiera que crea en la democracia quiera ver”.
Incrementando la productividad
A pesar de todos estos desafíos, Surace es uno de los principales defensores del uso de la IA y dice que es una tecnología que ya está cambiando enormemente la productividad y que debe ser adoptada.
La IA ha puesto la escritura de códigos informáticos en manos de usuarios que nunca han escrito una palabra de código en sus vidas, al hacer del inglés (o cualquier idioma que hable el usuario) el medio a través del cual una persona da órdenes a una computadora, explicó. .
“Es la primera vez que puedes hablar con una computadora en inglés. No es que otras personas no hubieran podido aprovechar la IA antes de esto, excepto que hubieran tenido que escribir en Java o Python”, dijo.
“Creo que este es el momento más maravilloso para estar vivo. Nunca se ha democratizado estas tecnologías, de modo que permitan a todos hacer cosas que ustedes nunca podrían haber hecho en su vida”, añadió.
Comparó la IA con la invención de la rueda y su impacto imaginado en dos hombres cuyo trabajo consiste en cargar cosas a la espalda cuesta arriba. Uno hipotéticamente responde diciendo: “Ya está, mi trabajo se acabó” y renuncia, mientras que el otro encuentra una segunda rueda, construye un carro y ahora transporta cargas mucho más pesadas cuesta arriba con más frecuencia.
O un ejemplo más reciente: la introducción de Excel en 1985, que revolucionó la forma de realizar los balances y una variedad de otras tareas.
“El punto de inflexión está aquí”, insistió, “por lo que o quieres adoptar la tecnología o terminarás enfrentándote a la extinción”.