ÓRGANO OFICIAL DEL COMITÉ CENTRAL DEL PARTIDO COMUNISTA DE CUBA
La guía describe más de 40 recomendaciones para que las consideren gobiernos, empresas de tecnología y proveedores de atención médica. Foto: tomado del Citma

La Organización Mundial de la Salud (OMS) publicó nuevas orientaciones sobre ética y gobernanza de grandes modelos multimodales, un tipo de tecnología de inteligencia artificial (IA) generativa de rápido crecimiento con aplicaciones en toda la atención sanitaria.

La guía confeccionada por la OMS describe más de 40 recomendaciones para que las consideren gobiernos, empresas de tecnología y proveedores de atención médica para garantizar el uso apropiado de grandes modelos multimodales (LMM, por sus siglas en inglés) para promover y proteger la salud.

Según los expertos, los LMM pueden aceptar uno o más tipos de entradas de datos, como texto, vídeos e imágenes, y generar diversos resultados que no se limitan al tipo de datos introducidos, y son únicos en su imitación de la comunicación humana y su capacidad para realizar tareas para las que no fueron programados explícitamente.

«Las tecnologías de IA generativa tienen el potencial de mejorar la atención sanitaria, pero sólo si quienes las desarrollan, regulan y utilizan estas tecnologías identifican y tienen plenamente en cuenta los riesgos asociados», afirmó el doctor Jeremy Farrar, científico jefe de la OMS. Añadió que se necesitan información y políticas transparentes para gestionar el diseño, desarrollo y uso de LMM para lograr mejores resultados de salud y superar las desigualdades sanitarias persistentes.

El documento describe cinco aplicaciones amplias de los LMM para la salud: Diagnóstico y atención clínica, como responder a las consultas escritas de los pacientes; Uso guiado por el paciente, por ejemplo para investigar síntomas y tratamientos; y Tareas administrativas y de oficina, como documentar y resumir las visitas de pacientes dentro de registros médicos electrónicos.

También están la Educación médica y de enfermería, que incluye proporcionar a los alumnos encuentros simulados con pacientes, y la Investigación científica y desarrollo de fármacos, incluida la identificación de nuevos compuestos.

De acuerdo con la OMS, si bien los LMM están comenzando a utilizarse para fines específicos relacionados con la salud, también existen riesgos documentados de producir declaraciones falsas, inexactas, sesgadas o incompletas, que podrían perjudicar a las personas que utilizan dicha información para tomar decisiones de salud.  Además, los LMM pueden estar entrenados con datos de mala calidad o sesgados, ya sea por raza, etnia, ascendencia, sexo, identidad de género o edad.

La guía también detalla otros riesgos más amplios para los sistemas de salud, como la accesibilidad y asequibilidad de los LMM de mejor rendimiento, y los problemas de ciberseguridad.  A nivel gubernamental, se recomienda la inversión en infraestructuras públicas accesibles a los desarrolladores de las IA a cambio de adherirse a los principios éticos establecidos.

La OMS también aconseja a los gobiernos la promulgación de leyes que garanticen que los LMM cumplen con los derechos humanos, o la asignación de una agencia reguladora que evalúe si estas tecnologías cumplen con los requisitos antes de su uso.  En este sentido, el director del departamento de Salud Digital e Innovación de la OMS, Alain Labrique, aseguró en la presentación de la guía que «los gobiernos de todos los países deben liderar de forma cooperativa los esfuerzos para regular eficazmente el desarrollo y el uso de las tecnologías de IA, como los LMM».

Según la OMS, los esfuerzos también deberán aumentarse en todas las fases de desarrollo de los grandes modelos de lenguaje hacia un diseño «estructurado, inclusivo y transparente».

Fuente: Red de Ciencia

COMENTAR
  • Mostrar respeto a los criterios en sus comentarios.

  • No ofender, ni usar frases vulgares y/o palabras obscenas.

  • Nos reservaremos el derecho de moderar aquellos comentarios que no cumplan con las reglas de uso.