Hay consenso internacional en la necesidad de regular el uso de la inteligencia artificial, IA, por los impactos que puede generar en la humanidad. Se reconocen los múltiples beneficios que ha traído, por las aplicaciones tecnológicas y el acceso a gran diversidad de fuentes de información. Sin embargo, los recientes avances en los llamados modelos de lenguaje tipo ChatGPT, han traído nuevamente la preocupación de los líderes en esta industria sobre los riesgos que incluso, señalan, los mismos desarrolladores no son capaces de prever.
Académicos, expertos y ejecutivos de la tecnología solicitaron hace unas semanas, pausar al menos seis meses el entrenamiento para el uso de los sistemas de inteligencia artificial de potencia superior al GPT-4. En una carta abierta señalaron el desarrollo desmedido de estas herramientas tecnológicas que, si no se estudian y controlan, podrán significar una potencial amenaza para la humanidad.
La declaración emitida por la organización Future of Life Institute, fue firmada por más de mil personas, incluidos Elon Musk, CEO de SpaceX, Tesla y Twitter; Steve Wozniak, cofundador de Apple; Meia Chita-Tegmark, cofundadora del Future of Life Institute; y Zachary Kenton científico investigador sénior de DeepMind, entre otros líderes del sector.
El documento, que está disponible en red e invita a las personas e instituciones a sumarse, señala la necesidad de planificar y administrar “con el cuidado y los recursos” la “carrera fuera de control” para desarrollar mentes digitales cada vez más poderosas y sin ninguna restricción.
“Los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables (…) limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos. (…) La humanidad puede disfrutar de un futuro floreciente con la IA, no nos apresuremos a caer sin estar preparados”, expresan los firmantes.
A esta petición de líderes se une la de directivos ejecutivos de las principales empresas de IA como DeepMind, OpenAI y Anthropic quienes también advierten sobre los daños existenciales de la tecnología de rápido desarrollo. Esta declaración fue firmada por más de 350 ejecutivos e investigadores, “los sistemas del futuro podrían ser tan mortíferos como las pandemias y las armas nucleares”, expresaron.
Entre los desafíos y preocupaciones que los expertos señalan está la manipulación de información con fines políticos, económicos o de activismo, a grado tal que se transmiten mentiras o verdades a medias. Las personas ya no sabemos identificar qué es verdad.
Otra consecuencia preocupante es el reemplazo de los trabajos por la automatización. Un informe del banco de inversión Goldman Sachs señala que la inteligencia artificial podría reemplazar el equivalente a 300 millones de empleos de tiempo completo.
También está la seguridad cibernética, el espionaje político, industrial y personal. El uso de datos personales, el robo de identidad y el acceso de información privada tiene impactos en la seguridad de los países y de las personas.
De igual forma, la monetización de las redes sociales y tecnologías digitales. Habrá más competencia por secuestrar nuestra atención en favor de productos, causas sociales o servicios.
También está la degradación humana o el human downgrading que está resonando en Silicon Valley y que refiere a la deshumanización de la persona expresada en el énfasis de la relación con las tecnologías en comparación con las personas. Menos sensibilidad hacia los demás, menos espíritu compasivo. “Los seres humanos van a pensar como máquinas”, algo que cree que cada vez ocurre más. Dependencia excesiva.
La tecnología es aliada en el desarrollo de armas sofisticadas que pone en riesgo la seguridad de los países y el deseo de tener el liderazgo en este tema.
¿Mentes no humanas más inteligentes? Nos dejarán obsoletos más pronto. Por ejemplo, se cree que en 2026 las máquinas serán capaces de escribir textos mejor que los alumnos de bachillerato.
Estos riesgos quizás son muy obvios porque ya los estamos viviendo, y justamente caemos en el juego de la duda. ¿Qué representan realmente los documentos firmados por los líderes tecnológicos?, ¿cuáles son los riesgos reales a corto y largo plazo?, ¿por qué les preocupa la falta de transparencia en los algoritmos?, ¿se necesita un organismo regulador para los laboratorios y desarrolladores?, ¿le corresponde al Gobierno hacer esto? y ¿se requiere de una organización internacional de seguridad de la inteligencia artificial, similar al Organismo Internacional de la Energía Atómica, que trata de controlar el uso de armas nucleares?
Para los ciudadanos de “a pie” preocupa lo que vemos, pero más lo que no vemos.
Es evidente la carrera tecnológica entre China, Estados Unidos y la Unión Europea en donde si no hay acuerdo entre los tres, particularmente con China, esta última se consolidaría como líder en el campo de la IA dejando desprotegidos a Estados Unidos y Europa.
Ante todo, sigue imperando la necesidad de mayor ética para alinear la tecnología con nuestra humanidad y de esta forma garantizar un futuro seguro y cordial para todos.
Está claro que la riqueza de la intimidad y de las vivencias solo se dan en las relaciones humanas.
Leticia Treviño es académica con especialidad en educación, comunicación y temas sociales, leticiatrevino3@gmail.com