¿Servirá de algo regular la IA?
Qué ha ocurrido desde que entró en vigor la Ley europea de inteligencia artificial
Las redes sociales ya no son la primera estrategia preferida por los magos de la tecno política, sino las redes neuronales; así que antes que aprendan a utilizarlas hasta el punto de poner al mundo de rodillas, había que hacer algo. Y Europa lo hizo. Ahora sabremos si la expectativa es exagerada.
La normativa de la UE establece cuatro niveles de riesgo de la inteligencia artificial. Están prohibidas, así, tajantemente, las redes neuronales de calificación social, vigilancia masiva y manipulación del comportamiento humano, que constituyen “riesgo inaceptable”. Enseguida encontramos el nivel de “alto riesgo”, en el que están clasificadas las inteligencias artificiales que amenazas el empleo, la educación y los servicios públicos, la seguridad y otros campos, las cuales serán sometidas a evaluaciones de conformidad. La tercera categoría, denominada “riesgo limitado”, conlleva obligaciones de transparencia para los fabricantes de chatbots, reconocimiento de emociones, biometría y otras; En el cuarto nivel – riesgo mínimo – es ubican todas las demás.
En nombre de la libertad de expresión el mundo se negó a regular las redes sociales hace unos años y ya vimos cómo de mal salió aquello. Fue curioso observar que se pusieron de acuerdo las perspectivas más ultraconservadoras con muchos de los activistas digitales y defensores de derechos humanos (supuestamente ubicados en la orilla contraria), para oponerse juntos a cualquier regulación que impusiera moderación o censura sobre las infamias que circulaban en X, Instagram, Facebook y demás plataformas. En pocos años la amenaza a la democracia proveniente de las redes sociales alcanzó tal dimensión que hoy casi nadie defiende esa malentendida libertad de matoneo, xenofobia, desinformación e incidencia en resultados electorales, propiciada desde ellas con absoluta impunidad.
Todavía recordamos que en 2016 los ciber activistas defensores de las libertades digitales quisieron ser más papistas que el Papa, y defendieron el derecho a la expresión incluso cuando las propias juntas directivas de Facebook y Twitter intentaban controlar los daños causados y establecían controles sobre los contenidos tóxicos destinados a lograr la reelección de Donald Trump. Asaltos a emblemáticos edificios parlamentarios en Estados Unidos y Brasil, campañas de exterminio étnico en Myanmar, suicidios de adolescentes angustiados por los likes; cosas así ocurrieron por ese nuevo laissez faire con el que el mundo abordó el problema de las redes sociales.
Europa decidió que eso no pasará de nuevo y tras casi dos años de intensas discusiones, sorteando el lobby de las poderosas big tech y negociando con empresas, gobiernos y bancadas de todas las orillas, aprobada en febrero pasado y que entró oficialmente en vigor en julio pasado.
No se trata solo de un cuerpo de restricciones. Forma parte de un paquete más amplio de medidas que apoyan el desarrollo confiable de las tecnologías emergentes, incluido el “paquete de innovación”, para ofrecer de conjunto una perspectiva de política pública que proteja los derechos fundamentales de las personas a la vez que incentiva la adopción, inversión y desarrollo de IA en los países miembros de la UE.
El fomento a la soberanía tecnológica europea incluye medidas que facilitan el acceso a los supercomputadores dedicados a IA, una ventanilla única para empresas innovadoras, apoyo a la investigación y al desarrollo de algoritmos y aplicaciones variadas de la inteligencia artificial. Se oficializó el apoyo financiero al desarrollo de IA europea con inversión pública y privada de al menos 4.000 millones de euros en los próximos tres años, así como la creación d euna política y espacios comunes de datos para Europa. Se promoverán nuevos desarrollos en robótica, salud, biotecnología, movilidad y clima, entre otros campos. Una Oficina Europea de IA fue creada para asegurar el cumplimiento de las normas aprobadas en los 27 países miembros.
Ninguna compañía tecnológica, por grande y poderosa que sea, podrá poner en funcionamiento en los países de la UE plataformas de biometría que infieran atributos de raza, credo, ideología u orientación sexual. Ni hacer predicciones sobre riesgos de delitos con base en perfiles de personas (ni siquiera en su historial judicial). No habrá cámaras identificando a infractores de tránsito. La biometría se utilizará para el control del terrorismo o los delitos ambientales, cosas realmente graves.
Como alto riesgo quedaron clasificadas las plataformas que perfilan personas, el tratamiento automatizado de datos personales, con fines de monitorear rendimiento laboral, situación económica, salud o preferencias. En tales casos, estas tecnologías serán sometidas a rigurosas evaluaciones.
Una buena síntesis, completa y bien explicada, se encuentra en el sitio oficial de la Unión Europea. El texto completo está disponible también.
La normativa es extensa, detallada y precisa. Solo resta averiguar si servirá para algo. Estrictas normas europeas sobre tecnología fueron noticia sensacional y después perdieron fuerza, debido a variadas circunstancias, como el Reglamento General de Protección de Datos (GDRP), o la “tasa Google” sobre impuestos a las big tech.
Para terminar, una afirmación apenas obvia, ingenua, quizás, pero inevitable: Cuán lejos estamos en Latinoamérica de poder soñar un marco regulatorio común, junto con políticas tecnológicas de uso general en la región que permitieran compartir infraestructuras, datos y recursos para fomentar la innovación y la soberanía tecnológica de nuestros países.
¿Qué piensas?