De esta manera es la inteligencia artificial de Google que advierte inconvenientes en la piel

Google ha presentado una vista anterior de una nueva herramienta impulsada por tecnología de inteligencia artificial que afirma que podría asistir a identificar inconvenientes en la piel. La herramienta, anunciada en la conferencia Google IO de la compañía la semana pasada, emplea inteligencia artificial para identificar posibles afecciones de la piel. No obstante, no pretende substituir el consejo médico, aseguró el gigante tecnológico.

Una base de datos con miles y miles de fotografías

Para emplearlo, los pacientes deben cargar 3 fotografías de un área problemática en la herramienta, que conforme Google puede reconocer hasta doscientos ochenta y ocho afecciones diferentes de la piel, las uñas y el pelo. Conforme un artículo publicado por estudiosos de Google en la gaceta Nature Medicine hace solo unas semanas, la herramienta se desarrolló empleando un conjunto de cerca de sesenta y cinco imágenes anónimas y datos de casos de enfermedades diagnosticadas, tomadas de un total de dieciseis y ciento catorce casos individuales.

No obstante, ciertos especialistas aseguran que las imágenes empleadas en ese estudio no son totalmente representativas de todos y cada uno de los tonos de piel, que los dermatólogos clasifican conforme la escala de Fitzpatrick, siendo la piel de Tipo 1 la más pálida y la de Tipo seis la más obscura.

Imágenes poco representativas y sin diversidad

Desde la compañía han reconocido que los tonos de piel con los que trabaja la aplicación no son totalmente representativas, mas aseguran que trabajan para incluir todas y cada una de las variedades posibles y hacer que la herramienta sea mucho más eficaz.

La carencia de ejemplos de géneros de piel más oscuros en la versión de prueba de la herramienta podría afectar de forma negativa a los pacientes con tonos de piel oscuros que la emplean. Los especialistas más críticos con esta aplicación aseguran que hay mucha patentiza que muestra que la desigualdad racial y de género persistente en la sociedad se refleja en conjuntos de datos de inteligencia artificial sesgados, lo que se traduce en corte algorítmico y conduce a resultados negativos en personas a nivel estructural marginadas.

En un comunicado, un portavoz de Google se defendió diciendo que los datos presentados en el estudio de Nature Medicine estaban desactualizados. «Nuestro trabajo es la culminación de más de 3 años de desarrollo progresivo. Tras nuestra investigación inicial en Nature Medicine y JAMA Network Open, hemos continuado refinando la tecnología sobre la que se fundamenta nuestra herramienta, incluyendo la obtención de conjuntos de datos auxiliares […] La equidad tiene, y proseguirá siendo, un enfoque clave y esto incluye trabajar con conjuntos de datos que incluyen diferentes etnias, géneros de piel y conjuntos de edad, y asociarse con médicos y especialistas que tienen experiencia trabajando con comunidades de color», sentenció el portavoz.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *