La tecnología de inteligencia artificial está siendo utilizada para crear imágenes explícitas falsas que se difunden en línea, afectando especialmente a las estudiantes menores de edad en Canadá. Estas imágenes son generadas rápidamente a través de sitios web gratuitos que “desvisten” a las mujeres en cuestión de minutos.
Si bien la tecnología necesaria para crear pornografía falsa convincente ha existido durante años, los expertos advierten que ahora es más rápida y accesible que nunca, lo que representa un desafío urgente para los responsables de formular políticas en Canadá.
El avance de la inteligencia artificial ha hecho posible hacer con un teléfono celular lo que antes requería un supercomputador, según el profesor de IA creativa Philippe Pasquier de la Universidad Simon Fraser en Columbia Británica. Esto ha llevado a que la sociedad haya “perdido la certeza” de lo que es real y lo que ha sido alterado.
La tecnología ha mejorado significativamente y ahora está al alcance de cualquier persona. Esto implica que tanto los actores buenos como los malos pueden tener acceso fácilmente.
Los legisladores en Canadá han estado tratando de mantenerse al día con esta problemática. Hasta el momento, ocho provincias han promulgado leyes sobre imágenes íntimas, pero solo la mitad de ellas hace referencia a imágenes alteradas. Recientemente, Columbia Británica se convirtió en la última provincia en implementar una ley que permite a las personas acudir a un tribunal de resolución civil para eliminar imágenes íntimas, ya sean reales o falsas, y buscar una compensación de los responsables y de las empresas de Internet.
Las multas para las personas y los sitios web que no cumplan con las órdenes de dejar de distribuir imágenes sin consentimiento pueden llegar hasta los $500 y $5,000 por día, respectivamente.
El primer ministro de Columbia Británica, David Eby, enfatizó que nadie está exento de estos “ataques” de imágenes generadas mediante IA. Este problema se presentó con imágenes falsas de la famosa cantante Taylor Swift. La fiscal general Niki Sharma expresó su preocupación por el hecho de que las personas no denuncien cuando son víctimas de la difusión no consensuada de imágenes íntimas, ya sean reales o falsas.
El problema de las imágenes falsas generado por IA es evidente en todo Canadá, habiendo casos donde fotos alteradas de estudiantes menores de edad circulan en línea. Las leyes sobre imágenes íntimas en Manitoba no hacen referencia a las imágenes alteradas.
La empresa de seguridad en Internet con sede en Victoria, White Hatter, llevó a cabo un experimento y descubrió que se podía desnudar virtualmente a una mujer vestida en cuestión de minutos utilizando sitios web gratuitos. Esto demuestra lo fácil que es realizar este tipo de manipulaciones con la tecnología actual.
Si bien se han tomado medidas legales para abordar este problema emergente, como la nueva legislación en Columbia Británica, aún hay aspectos a considerar. Es necesario adoptar legislaciones más amplias que se enfoquen tanto en la distribución no consensuada de imágenes explícitas como en la creación de imágenes falsas no consensuadas. Además, existen otros ámbitos legales, como la difamación y la privacidad, que pueden aplicarse a los deepfakes y a las imágenes alteradas.
Con el aumento de los deepfakes y la aceleración de la representación errónea de personas, es importante que la legislación se adapte y evolucione con la tecnología para proteger a los individuos y a la sociedad en general.
Preguntas frecuentes (FAQ) sobre imágenes falsas generadas con inteligencia artificial:
1. ¿Cómo se están utilizando las imágenes falsas generadas con inteligencia artificial?
Las imágenes falsas generadas con inteligencia artificial se están difundiendo en línea, especialmente en Canadá, afectando principalmente a estudiantes menores de edad. Estas imágenes son creadas rápidamente a través de sitios web gratuitos que “desvisten” a las mujeres en cuestión de minutos.
2. ¿Por qué se considera un desafío urgente para los responsables de formular políticas en Canadá?
La tecnología necesaria para crear pornografía falsa ha existido durante años, pero ahora es más rápida y accesible que nunca debido al avance de la inteligencia artificial. Esto ha llevado a que la sociedad haya “perdido la certeza” de lo que es real y lo que ha sido alterado, lo que representa un desafío urgente para los responsables de formular políticas en Canadá.
3. ¿Quiénes pueden tener acceso a esta tecnología de inteligencia artificial?
Tanto los actores buenos como los malos pueden tener acceso fácilmente a esta tecnología de inteligencia artificial, ya que ha mejorado significativamente y está al alcance de cualquier persona.
4. ¿Qué leyes existen actualmente en Canadá para abordar este problema?
Hasta el momento, ocho provincias en Canadá han promulgado leyes sobre imágenes íntimas, pero solo la mitad de ellas hace referencia a imágenes alteradas. Recientemente, Columbia Británica implementó una ley que permite a las personas acudir a un tribunal de resolución civil para eliminar imágenes íntimas, ya sean reales o falsas, y buscar compensación de los responsables y de las empresas de Internet. Las multas por no cumplir con las órdenes pueden llegar hasta los $500 y $5,000 por día para las personas y los sitios web, respectivamente.
5. ¿Este problema afecta a todas las personas por igual?
No, nadie está exento de ser víctima de imágenes generadas mediante inteligencia artificial. Incluso la famosa cantante Taylor Swift ha sido objeto de imágenes falsas generadas con IA.
6. ¿Existen leyes en todas las provincias de Canadá que aborden el problema de imágenes falsas generadas con IA?
No, las leyes sobre imágenes íntimas en Manitoba, por ejemplo, no hacen referencia a las imágenes alteradas. Sin embargo, cada vez más provincias están adoptando legislación para abordar este problema.
7. ¿Qué se ha hecho hasta ahora para abordar este problema y qué medidas adicionales se necesitan?
Se han tomado medidas legales, como la nueva legislación en Columbia Británica, pero aún hay aspectos a considerar. Es necesario adoptar legislaciones más amplias que se enfoquen en la distribución no consensuada de imágenes explícitas y en la creación de imágenes falsas sin consentimiento. Además, existen otros ámbitos legales, como la difamación y la privacidad, que pueden aplicarse a los deepfakes y a las imágenes alteradas.
Para obtener más información, puedes visitar White Hatter, una empresa de seguridad en Internet con sede en Victoria, que realizó un experimento sobre la manipulación de imágenes falsas generadas por IA.
Es importante que la legislación se adapte y evolucione con la tecnología para proteger a los individuos y a la sociedad en general frente al aumento de los deepfakes y la representación errónea de personas.