IA

¿AI profunda protección o amenaza de libertad de Internet?


Los críticos temen que la Ley Revisada No Fakes se haya transformado de la protección dirigida de AI Deepfakes en poderes radicales de censura.

Lo que comenzó como un intento aparentemente razonable de enfrentar a Deepfakes generados por IA se ha convertido en algo mucho más preocupante, según los defensores de los derechos digitales. La muy discusión de los originales de crianza, el arte de crianza y la Ley de Mantenimiento de entretenimiento (sin falsificaciones), originalmente destinada a prevenir réplicas digitales no autorizadas de personas, ahora amenaza con alterar fundamentalmente cómo funciona Internet.

La expansión del proyecto de ley ha establecido alarmas de alarma en toda la comunidad tecnológica. Ha ido mucho más allá de simplemente proteger a las celebridades de videos falsos para crear potencialmente un marco de censura radical.

Desde salvaguardas sensatas hasta el enfoque de Sledgehammer

La idea inicial no estaba completamente equivocada: crear protecciones contra los sistemas de IA que generan videos falsos de personas reales sin permiso. Todos hemos visto esos inquietantes profundos que circulan en línea.

Pero en lugar de elaborar medidas estrechas y específicas, los legisladores han optado por lo que la Fundación Electrónica Frontier llama un «sistema de licencia de imagen federalizada» que va mucho más allá de las protecciones razonables.

«El proyecto de ley actualizado se duplica en ese enfoque equivocado inicial», señala el EFF, «al ordenar una infraestructura de censura completamente nueva para ese sistema, que abarca no solo las imágenes sino los productos y los servicios utilizados para crearlas».

Lo que es particularmente preocupante es el requisito de la Ley No Fakes para que casi todas las plataformas de Internet implementen sistemas que no solo eliminarían el contenido después de recibir avisos de derribo, sino que también evitarán que se vuelva a subir contenido similar. Esencialmente, está obligando a las plataformas a implementar filtros de contenido que han demostrado ser notablemente poco confiables en otros contextos.

Innovación

Quizás lo más preocupante para el sector de IA es cómo la Ley de No Falas se dirige a las herramientas mismas. El proyecto de ley revisado no iría después de contenido dañino; Potencialmente cerraría plataformas de desarrollo completas y herramientas de software que podrían usarse para crear imágenes no autorizadas.

Este enfoque se siente que recuerda a tratar de prohibir los procesadores de palabras porque alguien podría usar uno para escribir contenido difamatorio. El proyecto de ley incluye algunas limitaciones (por ejemplo, las herramientas deben estar «diseñadas principalmente» para hacer réplicas no autorizadas o tener otros usos comerciales limitados), pero estas distinciones están notoriamente sujetas a interpretación.

Las pequeñas nuevas empresas del Reino Unido que se aventuran en la generación de imágenes de IA podrían verse atrapadas en costosas batallas legales basadas en acusaciones endeble mucho antes de que tengan la oportunidad de establecerse. Mientras tanto, los gigantes tecnológicos con ejércitos de abogados pueden clima mejor tales tormentas, potencialmente afianzando su dominio.

Cualquiera que haya tratado con el sistema ContentId de YouTube o herramientas de filtrado de derechos de autor similares sabe cuán frustrantemente imprecisos pueden ser. Estos sistemas rutinariamente marcan contenido legítimo, como músicos que interpretan sus propias canciones o creadores que usan material bajo disposiciones de trato justas.

La Ley No Fakes exigiría efectivamente sistemas de filtrado similares en Internet. Si bien incluye las talas para la parodia, la sátira y los comentarios, hacer cumplir estas distinciones algorítmicamente ha demostrado ser prácticamente imposible.

«Estos sistemas a menudo marcan cosas que son similares pero no iguales», explica el EFF, «como dos personas diferentes tocando la misma pieza de música de dominio público».

Para plataformas más pequeñas sin recursos a escala de Google, implementar dichos filtros podría resultar prohibitivamente costoso. El resultado probable? Muchos simplemente serían abundantes para evitar el riesgo legal.

De hecho, uno podría esperar que las principales compañías tecnológicas se opongan a una regulación tan radical. Sin embargo, muchos se han mantenido notablemente callados. Algunos observadores de la industria sugieren que esto no es una coincidencia: los gigantes establecidos pueden absorber más fácilmente los costos de cumplimiento que aplastarían a los competidores más pequeños.

«Probablemente no sea una coincidencia que algunos de estos mismos gigantes estén de acuerdo con esta nueva versión de No Fakes», señala EFF.

Este patrón se repite a lo largo del historial de regulación tecnológica: lo que parece ser la regulación que reina en la gran tecnología a menudo termina consolidando su posición de mercado creando barreras demasiado costosas para que los recién llegados los superen.

La Ley de No Fakes amenaza el discurso anónimo

Escondido en la legislación hay otra disposición preocupante que podría exponer a los usuarios anónimos de Internet en función de meras acusaciones. El proyecto de ley permitiría a cualquiera obtener una citación de un secretario judicial, sin revisión judicial o evidencia, obligando a los servicios a revelar información de identificación sobre los usuarios acusados ​​de crear réplicas no autorizadas.

La historia muestra que tales mecanismos están maduros para el abuso. Los críticos con puntos válidos pueden desenmascararse y ser potencialmente acosados ​​cuando su comentario incluye capturas de pantalla o citas de las mismas personas que intentan silenciarlos.

Esta vulnerabilidad podría tener un profundo efecto en las críticas legítimas y el denuncia de irregularidades. Imagine exponer la mala conducta corporativa solo para que su identidad revele a través de un proceso de citación de estampado de goma.

Este impulso para una regulación adicional parece extraño dado que el Congreso aprobó recientemente la Ley de Take It Down, que ya se dirige a imágenes que involucran contenido íntimo o sexual. Esa legislación en sí misma planteó problemas de privacidad, particularmente en torno a monitorear las comunicaciones cifradas.

En lugar de evaluar los impactos de la legislación existente, los legisladores parecen decididos a avanzar con restricciones más amplias que podrían remodelar la gobernanza de Internet en las próximas décadas.

Las próximas semanas resultarán críticas a medida que la Ley de No Falas se mueva a través del proceso legislativo. Para cualquiera que valora la libertad de Internet, la innovación y los enfoques equilibrados para los desafíos tecnológicos emergentes, esto tiene una observación cercana.

(Foto de Markus Spiske)

Ver también: Los archivos de Operai: ex-stand reclamo de ganancias codiciada traicionando la seguridad de la IA

¿Quiere obtener más información sobre AI y Big Data de los líderes de la industria? Echa un vistazo a AI y Big Data Expo que tendrá lugar en Amsterdam, California y Londres. El evento integral está ubicado en otros eventos líderes, incluida la Conferencia de Automatización Inteligente, Blockx, la Semana de Transformación Digital y Cyber ​​Security & Cloud Expo.

Explore otros próximos eventos y seminarios web de tecnología empresarial alimentados por TechForge aquí.

(Tagstotranslate) ai



Source link

Related posts

Google Gemini vs Competidores: cómo se acumula Géminis

admin

Las empresas promedian 21 proyectos de IA en producción

admin

El futuro de IA de China y el largo juego de Huawei

admin

Leave a Comment