¿Quién le pone el cascabel a la inteligencia artificial?

Mas la ocasión existe. Sabemos que las soluciones chinas y estadounidenses tienen un coste en datos, y hay incentivos para evitarlas, sobre todo por la parte de las administraciones, los servicios públicos y, muy en especial, la defensa. Asimismo podríamos ser vanguardistas en tecnologías no extractivas que numerosos países desean adquirir. No obstante, la propuesta de la Comisión carece de los incentivos suficientes para producir esa opción alternativa. Está desarrollada para actuar solo “cuando los derechos esenciales están en juego”, lo que deja un extenso margen para la innovación.

La Comisión plantea regular solo aquellas cosas que considera de alto peligro, que no son los algoritmos de recomendación de canciones o bien titulares o bien qué libro adquirir después. Por un lado, están los sistemas que puedan ocasionar daño, conductas delincuentes, perjuicios o bien discriminación a los ciudadanos de forma oculta o bien maliciosa; por otra, los sistemas de identificación biométrica automática y recóndita, si bien con un extenso abanico de salvedades.

Por servirnos de un ejemplo, prohíbe los programas de IA que dejan mudar la cara de una persona por la de otra en un vídeo, conocidos popularmente como Deep Fake. Si bien solo aparecen en los medios cuando se emplean en campañas políticas o bien para resucitar faraonas en anuncios de cerveza, el noventa y nueve  por ciento de las incidencias están vinculadas al acoso y degradación de exnovias y compañeras de clase o bien de trabajo, un género tan frecuente que tiene su etiqueta: revenge porn.

Asimismo prohíbe sistemas de crédito social, como el que emplea el gobierno chino para castigar o bien retribuir a los ciudadanos, si bien no queda claro de qué forma piensa controlar los que se hacen de forma opaca, caso de los algoritmos que eligen aspirantes para percibir un riñón o bien un puesto o bien calculan el coste de un seguro o bien una hipoteca. Son sistemas entrenados sobre resoluciones precedentes y, en consecuencia, propensos a heredar cortes económicos, raciales y sexuales y mecanizar una sigilosa discriminación. Por el momento, la propuesta está concebida para fiscalizar a las compañías que desarrollan el software, que deberán estar prestas a abrir el código para inspección y a que ese código sea auditable. Una novedad excitante en un planeta dominado por las cajas negras de Google, Fb, Amazon, Apple, IBM y Microsoft.

Más alarmante es la propuesta sobre sistemas de reconocimiento facial automáticos en tiempo real. De entrada, la policía no podría efectuar barridos de reconocimiento en tiempo real de todas y cada una de las personas que entran y salen de un estadio, un concierto o bien una manifestación. A menos que se esté buscando a un pequeño desaparecido o bien a un sospechoso de terrorismo, de asesinato o bien de fraude. Es una red de arrastre demasiado grande que ofrece ocasiones de abuso en poblaciones frágiles.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *