Alaska utiliza estadísticas falsas en sus políticas, la ilusión de la IA salió mal

AI hallucinations gone wrong as Alaska uses fake stats in policy Part1 scaled e1730772302361

La integración de la IA en la formulación de políticas a veces puede tener efectos imprevistos, como se vio recientemente en Alaska.

En un incidente inusual, los legisladores de Alaska supuestamente utilizaron citaciones inexactas generadas por inteligencia artificial para justificar una política propuesta que prohíbe los teléfonos celulares en las escuelas. Según /The Alaska Beacon/, el Departamento de Educación y Desarrollo Temprano de Alaska (DEED) ha propuesto un borrador de política que cita investigaciones académicas inexistentes.

Eso es lo que sucedió cuando la comisionada de Educación de Alaska, Deena Bishop, utilizó inteligencia artificial generativa para redactar una política sobre telefonía celular. El documento generado por IA contenía supuestas referencias académicas que no fueron verificadas ni precisas, pero el documento no reveló el uso de IA en su preparación. Parte del contenido generado por IA llega a la Comisión de Educación y Desarrollo Temprano del Estado de Alaska antes de ser revisado, lo que podría afectar las discusiones de la comisión.

La comisionada Bishop afirmó más tarde que la IA sólo se utilizó para "crear citas" para el primer borrador, afirmando que corrigió el error enviando citas actualizadas a los miembros de la junta antes de la reunión. Sin embargo, las “alucinaciones” de la IA (información fabricada generada cuando la IA intenta crear contenido que parece razonable pero no verificado) permanecieron en el documento final votado por la junta.

La resolución final, publicada en el sitio web del DEED, ordena al departamento que desarrolle una política modelo para restringir el uso de teléfonos celulares en las escuelas. Desafortunadamente, el documento contiene seis citas, cuatro de las cuales parecen provenir de revistas científicas respetadas. Sin embargo, estas referencias son completamente inventadas y las URL conducen a contenido irrelevante. El incidente ilustra los riesgos de utilizar datos generados por IA sin una verificación humana adecuada, especialmente al tomar decisiones políticas.

ASI Alliance lanza AIRIS que puede “aprender” en MinecraftASI Alliance lanza AIRIS que puede “aprender” en Minecraft

El caso de Alaska no es único. Las alucinaciones por IA son cada vez más comunes en los campos profesionales. Por ejemplo, algunos profesionales del derecho se han enfrentado a consecuencias por utilizar citaciones generadas por IA en casos ficticios ante los tribunales. Del mismo modo, los artículos académicos creados con IA contienen datos distorsionados y fuentes falsas, lo que plantea serios problemas de credibilidad. Si no se controlan, los algoritmos de IA generativa (diseñados para generar contenido basado en patrones en lugar de precisión fáctica) pueden producir fácilmente citas engañosas.

La dependencia de datos generados por IA en la toma de decisiones, especialmente en educación, plantea riesgos importantes. Cuando las políticas se basan en información fabricada, pueden asignar mal recursos y potencialmente dañar a los estudiantes. Por ejemplo, las políticas que restringen el uso de teléfonos celulares basándose en datos fabricados pueden desviar la atención de intervenciones más efectivas y basadas en evidencia que realmente pueden beneficiar a los estudiantes.

Además, el uso de datos de IA no validados podría socavar la confianza del público en el proceso de formulación de políticas y en la propia tecnología de IA. Incidentes como este resaltan la importancia de la verificación de hechos, la transparencia y la precaución al utilizar la inteligencia artificial en áreas sensibles de toma de decisiones, especialmente en la educación, donde el impacto en los estudiantes puede ser de gran alcance.

Los funcionarios de Alaska intentaron restar importancia a la situación, calificando las citas inventadas como "marcadores de posición" que podrían corregirse más adelante. Sin embargo, el documento con el "marcador de posición" se presentó a la junta directiva y se utilizó como base para la votación, lo que subraya la necesidad de una supervisión estricta cuando se utiliza inteligencia artificial.

(fotografía: Estudio Creativo Hartono)

La IA centralizada es peligrosa: ¿cómo podemos detenerla?La IA centralizada es peligrosa: ¿cómo podemos detenerla?

Ver también: Anthropic insta a regular la IA para evitar desastres

¿Quiere aprender más sobre inteligencia artificial y big data de la mano de los líderes de la industria? Controlar Expo Inteligencia Artificial y Big Data Celebrada en Amsterdam, California y Londres. El evento integral se lleva a cabo al mismo tiempo que otros eventos importantes, incluidos Conferencia de automatización inteligente, brockx, semana de transformación digitaly Expo Ciberseguridad y Nube.

Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados ​​por TechForge aquí.

Etiqueta: inteligencia artificial, derecho, política, investigación

Descubre herramientas IA similares a Alaska utiliza estadísticas falsas en sus políticas, la ilusión de la IA salió mal puedes visitar la categoría Noticias.

Repositoria

Relacionado:

Subir