El Partido Laborista planea obligar a las empresas de inteligencia artificial a compartir los resultados de las pruebas de carretera de su tecnología, después de advertir que los reguladores y políticos no han logrado controlar las plataformas de redes sociales. El partido reemplazaría un acuerdo voluntario de pruebas entre las empresas tecnológicas y el gobierno con un régimen legal, en el cual se obligaría a las empresas de IA a compartir datos de prueba con los funcionarios.
Según el secretario de tecnología en la sombra, Peter Kyle, los legisladores y reguladores se han quedado “atrás de la curva” en cuanto a las redes sociales y el Partido Laborista se asegurará de no cometer el mismo error con la inteligencia artificial. En lugar de utilizar citas, Kyle afirmó que las empresas de tecnología deberían ser más transparentes, especialmente después del asesinato de Brianna Ghey. Según el político, bajo un gobierno laborista, las empresas que trabajen en tecnología de IA deberán ser más abiertas.
“Pasaremos de un código voluntario a un código legal”, declaró Kyle, en una entrevista en Sunday with Laura Kuenssberg de BBC One. “Las empresas que se dediquen a este tipo de investigación y desarrollo tendrán que publicar todos los datos de prueba y decirnos para qué están realizando las pruebas, para que podamos ver exactamente qué está sucediendo y hacia dónde nos está llevando esta tecnología”.
Bajo las propuestas laboristas, las empresas de IA también tendrían que informar al gobierno, de forma legal, si planean desarrollar sistemas de inteligencia artificial con un determinado nivel de capacidad, y deberían llevar a cabo pruebas de seguridad con “supervisión independiente”.
El acuerdo de prueba de la cumbre mundial de seguridad de la IA, respaldado por la Unión Europea y 10 países incluyendo Estados Unidos, Reino Unido, Japón, Francia y Alemania, se basó en la cooperación voluntaria de las principales empresas de IA, como Google y el desarrollador de ChatGPT, OpenAI, para llevar a cabo pruebas en modelos de IA avanzados antes y después de su despliegue. Algunas de las empresas tecnológicas que se han comprometido a realizar pruebas en sus modelos incluyen a Google, OpenAI, Amazon, Microsoft y Meta de Mark Zuckerberg.
Kyle, quien se encuentra en Estados Unidos visitando a legisladores de Washington y ejecutivos de tecnología, señaló que los resultados de las pruebas ayudarían al recién creado Instituto de Seguridad de IA del Reino Unido a “tranquilizar al público de que estamos examinando de manera independiente lo que está sucediendo en algunas de las partes más vanguardistas de la inteligencia artificial”. Además, enfatizó la importancia de asegurarse de que el desarrollo de esta tecnología se realice de manera segura, debido a su profundo impacto en el lugar de trabajo, la sociedad y la cultura.
Preguntas frecuentes sobre el plan del Partido Laborista para regular la inteligencia artificial:
1. ¿Qué planea el Partido Laborista en relación con las empresas de inteligencia artificial?
El Partido Laborista planea obligar a las empresas de inteligencia artificial a compartir los resultados de las pruebas de carretera de su tecnología.
2. ¿Por qué el Partido Laborista quiere imponer esta obligación?
El Partido Laborista argumenta que los reguladores y políticos no han logrado controlar adecuadamente las plataformas de redes sociales y no quieren repetir el mismo error con la inteligencia artificial.
3. ¿Cómo se reemplazaría el acuerdo voluntario actual?
El Partido Laborista propone reemplazar el acuerdo voluntario de pruebas entre las empresas tecnológicas y el gobierno con un régimen legal que obligue a las empresas de IA a compartir datos de prueba con los funcionarios.
4. ¿Qué se espera de las empresas de tecnología de IA bajo un gobierno laborista?
Bajo un gobierno laborista, las empresas de tecnología de IA deberán ser más transparentes y publicar todos los datos de prueba, así como informar al gobierno sobre sus planes de desarrollo de sistemas de inteligencia artificial.
5. ¿Qué tipo de pruebas de seguridad se requerirían?
Las empresas de IA también deberán llevar a cabo pruebas de seguridad con supervisión independiente.
6. ¿Cuáles son algunas de las empresas de IA que se han comprometido a realizar pruebas en sus modelos?
Algunas de las empresas tecnológicas que se han comprometido a realizar pruebas en sus modelos incluyen a Google, OpenAI, Amazon, Microsoft y Meta de Mark Zuckerberg.
7. ¿Cómo se beneficiaría el Instituto de Seguridad de IA del Reino Unido?
Los resultados de las pruebas ayudarían al Instituto de Seguridad de IA del Reino Unido a examinar de manera independiente lo que está sucediendo en el campo de la inteligencia artificial y tranquilizar al público al respecto.
Definiciones clave:
– Inteligencia Artificial (IA): se refiere a la capacidad de las máquinas de imitar la inteligencia humana y realizar tareas que normalmente requerirían la intervención humana.
– Redes sociales: plataformas en línea que permiten a las personas compartir contenido, interactuar y conectarse con otros usuarios.
Enlaces relacionados sugeridos:
– BBC (enlace a la página principal de la BBC)
– OpenAI (enlace al sitio web de OpenAI)