banner

Noticias

May 19, 2023

La Comisión Europea quiere etiquetas en la IA

El lunes, la Comisión Europea expresó su deseo de que los principales actores en el panorama de Internet tomen medidas voluntarias sobre el contenido generado por IA de inmediato en lugar de esperar los plazos reglamentarios.

Las partes interesadas de la industria de Telus International y Manta compartieron sus perspectivas con InformationWeek por separado después de que la comisión dio a conocer sus intenciones.

Durante la conferencia de prensa del lunes, Vĕra Jourová, vicepresidenta a cargo de valores y transparencia de la Comisión Europea, habló sobre la última reunión del grupo de trabajo para el Código de buenas prácticas sobre desinformación de la Unión Europea. Habló sobre la implementación del código y la Ley de Servicios Digitales, que ahora incluye a Facebook, Google, YouTube, TikTok, LinkedIn y otros como signatarios, y expuso sus expectativas para que las empresas, especialmente las principales plataformas en línea, incluyan una moderación constante. e inversión en verificación de contenido.

"Todavía circula demasiado contenido peligroso de desinformación", dijo Jourová.

La escalada de la preocupación de la UE fue impulsada por algo más que la proliferación de la IA generativa, aunque su existencia puede estar acelerando las preocupaciones sociopolíticas. Jourová dijo que no es lo habitual en el mundo, ya que estados como Rusia fomentan la desinformación, incluso en la invasión en curso de Ucrania. "La guerra no son solo las armas, sino también las palabras", dijo. "La guerra de desinformación rusa contra el mundo democrático ya comenzó hace muchos años después de la anexión de Crimea".

Jourová dijo que la UE necesita que los signatarios de la Ley de Servicios Digitales "tengan capacidades suficientes en todos los estados miembros y en todos los idiomas" para verificar el contenido. Citó la creciente capacidad de la IA generativa y los chatbots avanzados para completar contenido complejo rápidamente, incluidas imágenes de eventos que nunca ocurrieron y la imitación de voces. Jourová pidió a los signatarios que crearan una pista dedicada dentro del Código de prácticas sobre desinformación para discutir estos asuntos.

Lo que quiere ver incluye salvaguardas para garantizar que la IA no pueda ser utilizada por actores malintencionados para generar desinformación. Jourová también dijo que quiere signatarios con el potencial de difundir desinformación generada por IA para implementar tecnología que reconozca y marque dicho contenido, etiquetándolo claramente para los usuarios.

“Tenemos la tarea principal de proteger la libertad de expresión, pero cuando se trata de la producción de IA, no veo ningún derecho para que las máquinas tengan libertad de expresión”, dijo.

Algunas discusiones ya están en marcha. Jourová dijo que habló con el CEO de Google, Sundar Pichai, sobre el desarrollo de tecnología lo suficientemente rápido como para detectar y etiquetar el contenido producido por IA para la conciencia pública. Existen tecnologías para esto, dijo Jourová, pero también se está trabajando en ellas.

Ha habido cierta disidencia entre las grandes plataformas. Ella dijo que Twitter, bajo la propiedad de Elon Musk, eligió "el camino difícil" con la confrontación al retirarse del Código de práctica sobre desinformación. "El código es voluntario, pero no se equivoquen, al dejar el código, Twitter ha llamado mucho la atención", dijo Jourová. "Sus acciones y el cumplimiento de la ley de la UE serán examinados enérgica y urgentemente".

También dijo que si Twitter quiere operar y ganar dinero en el mercado europeo, debe cumplir con la Ley de Servicios Digitales en lugar de simplemente adherirse a las regulaciones de otras jurisdicciones. "La Unión Europea no es el lugar donde queremos ver una ley californiana importada", dijo Jourová.

Aunque la DSA ordena a las empresas que se consideran grandes plataformas en línea y motores de búsqueda que etiqueten las imágenes, el audio y el video manipulados posiblemente para agosto, Jourová preferiría que no esperaran. "El etiquetado debe hacerse ahora", dijo. "Inmediatamente."

El impulso regulatorio podría conducir a un escrutinio más profundo de dónde proviene el contenido generado por IA, hasta sus fuentes de datos. Jan Ulrych, vicepresidente de investigación y educación de Manta, está a favor de los esfuerzos que está realizando la UE para regular este espacio. Manta es un proveedor de una plataforma de linaje de datos que ofrece visibilidad de los flujos de datos, y la empresa ve el linaje de datos como una forma de verificar el contenido de la IA.

Ulrych dice que cuando se trata de contenido de noticias, todavía no parece haber un método efectivo para validar o hacer que las fuentes sean lo suficientemente transparentes para verificar los hechos en tiempo real, especialmente con la capacidad de la IA para generar contenido. "La IA aceleró este proceso al hacer posible que cualquiera genere noticias", dice.

Es casi un hecho que la IA generativa no desaparecerá debido a las regulaciones o protestas públicas, pero Ulrych ve la posibilidad de autorregulación entre los proveedores junto con las barreras gubernamentales como pasos saludables. "Espero que, en gran medida, los propios proveedores inviertan en hacer que los datos que proporcionan sean más transparentes", dice.

La solicitud de la UE de que las empresas esencialmente hagan lo correcto y actúen ahora no fue sorprendente, dice Nicole Gutiérrez, asesora general asociada de Telus International, una empresa de servicios de TI. Dado el sentimiento público sobre la IA generativa, tomar medidas podría disipar algunas preocupaciones. "Según la encuesta que acabamos de realizar recientemente, el 71 % de los consumidores estadounidenses cree que es importante que las empresas sean transparentes con la forma en que utilizan la IA generativa", dice.

Además, el 77% de los encuestados, dice Gutiérrez, quiere que las marcas que usan IA generativa estén obligadas a auditar los algoritmos de IA para garantizar que no haya sesgos ni prejuicios.

Agregar etiquetas según la solicitud de la UE podría generar confianza en el público, dice, un esfuerzo que debería ser apoyado por los reguladores y las empresas por igual.

El enfoque actual de la UE en plataformas en línea muy grandes para tomar medidas tiene sentido, dice Gutiérrez, porque esas organizaciones tienen los recursos para responder antes que las empresas más pequeñas. "No quieres crear un efecto escalofriante en toda la industria en el que estás excluyendo a los jugadores más pequeños porque simplemente no tienen la capacidad de cumplir con estas regulaciones", dice.

Eso no significa que los jugadores más pequeños escaparán del escrutinio y la aplicación futuros para etiquetar el contenido generado por IA que aparece en sus plataformas. Las multas escalonadas, dice Gutiérrez, podrían entrar en juego para regular a los operadores más pequeños.

Las empresas multinacionales se enfrentan a un panorama legal fragmentado por delante, dice, en lo que respecta a la política de IA. Jurisdicciones como California continúan desarrollando políticas internas en este espacio mientras que la UE avanza aún más en su postura regulatoria, y es posible que sus políticas no coincidan necesariamente.

"Si la UE presenta regulaciones y requisitos que están en conflicto con otros requisitos de otras jurisdicciones, especialmente de América del Norte... lo que pueden hacer en un lugar cumple pero no cumple en otro", dice Gutiérrez.

Meta Hit con una multa récord de $ 1.3B GDPR

Meta prepara la posible interrupción de los servicios de la UE a la espera de la resolución de datos

¿Qué acaba de romperse?: ¿Debería la IA venir con etiquetas de advertencia?

Las empresas estadounidenses deben lidiar con la ley de IA de la UE, les guste o no

Lo que la Comisión quiere Lo que las partes interesadas piensan hasta ahora Qué leer a continuación:
COMPARTIR