Joe Biden impulsa normas para el uso ético de la inteligencia artificial generativa

La administración estadounidense avanza hacia un marco regulador para la aplicación y la seguridad de tecnologías emergentes

Opy Morales

Por Opy Morales/Cortesía

El gobierno de Joe Biden establece la primera fecha límite para la contribución pública en normativas de IA. (Imagen Ilustrativa Infobae)

La administración de Joe Biden ha iniciado recientemente los procesos para el desarrollo de normas y directrices clave que garantizarán la implementación segura de la inteligencia artificial generativa, así como la evaluación y protección de estos sistemas avanzados. La solicitud de aportes públicos, anunciada por el Departamento de Comercio de EE.UU. a través del Instituto Nacional de Estándares y Tecnología (NIST), tiene como fecha límite el 2 de febrero.

En 2024, se espera que la IA se integre aún más en las operaciones empresariales, mejorando potencialmente su eficiencia. (Imagen ilustrativa Infobae)

Te puede interesar:Cinco predicciones tecnológicas que todo empresario debería tener en cuenta para 2024

Esta iniciativa es una respuesta directa a la orden ejecutiva de Biden de octubre sobre IA, con el propósito de establecer “estándares de la industria en cuanto a la seguridad, seguridad y confianza en la IA que permitirán a América seguir liderando el mundo en el desarrollo responsable y el uso de esta tecnología que evoluciona rápidamente”, según reportó Reuters.

La inteligencia artificial generativa enciende el debate sobre su impacto en la fuerza laboral y la estabilidad política. (Imagen Ilustrativa Infobae)La inteligencia artificial generativa enciende el debate sobre su impacto en la fuerza laboral y la estabilidad política. (Imagen Ilustrativa Infobae)

El NIST está trabajando en la elaboración de pautas de evaluación, la promoción del desarrollo de estándares y la provisión de entornos de pruebas para sistemas de IA. La agencia busca comentarios tanto de compañías especializadas en IA como del público general. Estos aportes se centrarán en la gestión de riesgos de IA generativa y la reducción de los riesgos del engaño generado por IA.

Te puede interesar:La IA está a punto de enfrentarse a muchos más riesgos legales: así pueden prepararse las empresas

La tecnología de IA generativa es capaz de crear texto, fotos y videos en respuesta a prompts abiertos y ha generado tanto entusiasmo como preocupación por su potencial impacto en la obsolescencia de empleos, la inestabilidad electoral y efectos potencialmente catastróficos por superpotencias humanas.

La orden de Biden instruye a las agencias a establecer normas para las pruebas y abordar riesgos químicos, biológicos, radiológicos, nucleares y de ciberseguridad relacionados. El NIST está en proceso de definir lineamientos para pruebas que incluyen “red-teaming”, donde es más beneficioso para la evaluación y gestión de riesgos de IA, y en establecer las mejores prácticas para hacerlo.

Te puede interesar:Jeff Bezos y la inteligencia artificial: “Los grandes modelos de lenguaje no son inventos, son descubrimientos”

El “red-teaming” externo se ha utilizado durante años en ciberseguridad para identificar nuevos riesgos, un término que se refiere a las simulaciones de la Guerra Fría donde el enemigo se denominaba el “equipo rojo”.

Sectores especializados y ciudadanos están llamados a delinear el futuro de la inteligencia artificial en EE.UU. (Imagen Ilustrativa Infobae)Sectores especializados y ciudadanos están llamados a delinear el futuro de la inteligencia artificial en EE.UU. (Imagen Ilustrativa Infobae)

En agosto, se llevó a cabo el primer evento de evaluación pública “red-teaming” en una importante conferencia de ciberseguridad, organizado por AI Village, SeedAI, Humane Intelligence. Miles de participantes intentaron provocar fallos en los sistemas para “mejor comprender los riesgos que estos sistemas presentan”, según la Casa Blanca. El evento “demostró cómo el red-teaming externo puede ser una herramienta efectiva para identificar nuevos riesgos de IA”.

(Con información de Reuters)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Contact Us