Anthropic insta a regular la IA para evitar desastres

anthropic ai regulation artificial intelligence law legal government

selección antrópica Señaló los riesgos potenciales de los sistemas de inteligencia artificial y pidió una buena regulación para evitar posibles desastres. La organización cree que una regulación específica es fundamental para aprovechar los beneficios de la IA y mitigar sus peligros.

A medida que los sistemas de IA desarrollan capacidades en matemáticas, razonamiento y codificación, su posible uso indebido en áreas como la ciberseguridad e incluso en disciplinas biológicas y químicas aumenta significativamente.

Anthropic advirtió que los próximos 18 meses serán críticos para que los responsables de la formulación de políticas tomen medidas porque la ventana para la prevención proactiva se está reduciendo. En particular, el Frontier Red Team de Anthropic destacó cómo los modelos actuales contribuyen a una variedad de tareas relacionadas con los ciberataques y anticipa que los modelos futuros serán aún más efectivos.

De particular preocupación es la posibilidad de que los sistemas de IA exacerben el uso indebido de sustancias químicas, biológicas, radiológicas y nucleares (QBRN). Instituto Británico de Seguridad de Inteligencia Artificial establecido Algunos modelos de IA ahora pueden igualar la experiencia humana a nivel de doctorado al brindar respuestas a consultas relacionadas con la ciencia.

Al abordar estos riesgos, Anthropic detalla sus Política de expansión responsable (RSP) se lanzó en septiembre de 2023 como una poderosa contramedida. RSP requiere mayores medidas de seguridad acordes con la complejidad de las capacidades de IA.

GitHub amplía su suite de IA: Copilot se vuelve multimodelo, Spark apunta al desarrollo web por primera vezGitHub amplía su suite de IA: Copilot se vuelve multimodelo, Spark apunta al desarrollo web por primera vez

El marco RSP está diseñado para ser adaptable e iterativo, con modelos de IA evaluados periódicamente para mejorar los protocolos de seguridad de manera oportuna. Anthropic dijo que está comprometido a mantener y mejorar la seguridad en las diversas extensiones de su equipo, particularmente en las áreas de seguridad, explicabilidad y confianza, garantizando que esté preparado para los rigurosos estándares de seguridad establecidos por el RSP.

Anthropic cree que la adopción generalizada de RSP en toda la industria de la IA, si bien es en gran medida voluntaria, es fundamental para abordar los riesgos de la IA.

Una regulación transparente y eficaz es fundamental para garantizar a la sociedad que las empresas de IA cumplen con sus compromisos de seguridad. Sin embargo, los marcos regulatorios deben ser estratégicos e incentivar buenas prácticas de seguridad sin crear cargas innecesarias.

Anthropic visualiza regulaciones que sean claras, enfocadas y adaptables al panorama tecnológico en evolución y cree que estas regulaciones son fundamentales para lograr un equilibrio entre mitigar el riesgo y promover la innovación.

En Estados Unidos, Anthropic dice que la legislación federal puede ser la respuesta definitiva para regular los riesgos de la IA, aunque si la acción federal se retrasa, es posible que sea necesario intervenir mediante iniciativas impulsadas por los estados. Los marcos legislativos desarrollados por países de todo el mundo deberían permitir la estandarización y el reconocimiento mutuo para respaldar la agenda global de seguridad de la IA y minimizar los costos del cumplimiento normativo en diferentes regiones.

La filtración del Proyecto Jarvis revela la visión de Google para el Gemini de próxima generaciónLa filtración del Proyecto Jarvis revela la visión de Google para el Gemini de próxima generación

Además, Anthropic aborda el escepticismo sobre la implementación de la regulación, enfatizando que una regulación demasiado amplia centrada en casos de uso es ineficaz para los sistemas de IA de uso general con múltiples aplicaciones. En cambio, las regulaciones deberían centrarse en las propiedades fundamentales y las medidas de seguridad de los modelos de IA.

Si bien cubre una amplia gama de riesgos, Anthropic reconoce que algunas amenazas inmediatas, como los deepfakes, no son el foco de sus propuestas actuales, ya que otras iniciativas abordan estos problemas a corto plazo.

En última instancia, Anthropic enfatiza la importancia de crear regulaciones que estimulen la innovación en lugar de sofocarla. La carga de cumplimiento inicial, si bien es inevitable, se puede minimizar mediante pruebas de seguridad flexibles y bien diseñadas. Una regulación adecuada puede incluso ayudar a salvaguardar los intereses nacionales y la innovación del sector privado al proteger la propiedad intelectual de amenazas internas y externas.

Al centrarse en riesgos medidos empíricamente, Anthropic traza un entorno regulatorio que no favorece ni los modelos de código abierto ni los cerrados. El objetivo sigue siendo claro: gestionar los importantes riesgos de los modelos de IA de vanguardia mediante una regulación estricta pero adaptable.

(Fuente de la imagen: selección antrópica)

Ver también: El presidente Biden publica el primer memorando de seguridad nacional sobre inteligencia artificial

¿Quiere aprender más sobre inteligencia artificial y big data de la mano de los líderes de la industria? Controlar Expo Inteligencia Artificial y Big Data Celebrada en Amsterdam, California y Londres. El evento integral se lleva a cabo al mismo tiempo que otros eventos importantes, incluidos Conferencia de automatización inteligente, brockx, semana de transformación digitaly Expo Ciberseguridad y Nube.

Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados ​​por TechForge aquí.

Etiqueta: ai,humano,inteligencia artificial,gobierno,ley,legislación,política,política,regulación,riesgo,seguridad,sociedad

Descubre herramientas IA similares a Anthropic insta a regular la IA para evitar desastres puedes visitar la categoría Noticias.

Repositoria

Relacionado:

Subir