Las nuevas regulaciones de California en torno a la inteligencia artificial plantean conversaciones sobre sus efectos en el mercado creativo.
La consultora legal de SAG-AFTRA, Danielle Van Lier, fue panelista en el Evaluación de riesgos y riesgos: una mirada a las regulaciones propuestas en California sobre inteligencia artificial y privacidad panel virtual el 21 de noviembre. El panel fue presentado por el Centro de información sobre privacidad electrónica, una organización independiente sin fines de lucro enfocada en cuestiones de privacidad en la era digital, con el director ejecutivo de EPIC, Alan Butler, como moderador. Otros oradores del panel fueron Samantha Gordon, directora del programa Tech Equity, Annette Bernhardt, directora del programa de tecnología y trabajo del Centro Laboral de UC Berkeley, y Jen King, becaria del Instituto de Inteligencia Artificial Centrada en el Ser Humano y Política de Datos de la Universidad de Stanford.
El panel destacó las nuevas regulaciones que está implementando California sobre el uso de inteligencia artificial y los datos, específicamente en torno a la tecnología de toma de decisiones automatizada, conocida como ADMT. Van Lier se centró en el impacto que las ADMT pueden tener en los miembros de SAG-AFTRA y en el panorama de los medios en general, y señaló que la IA entrenada para considerar ciertos tipos de datos puede tener consecuencias de gran alcance en las decisiones creativas que toman los estudios, incluidos los proyectos que pueden recibir luz verde y quién es elegido para ciertos roles.
“Creo que hay una conversación más amplia [que debe tenerse] sobre la ética en torno a [los ADMT] que a menudo se pierde. A menudo analizo el tema del sesgo en este espacio... y esta tecnología es tan buena como los datos que se alimentan con ella”, dijo. “Si estás creando nuevas herramientas de toma de decisiones, tendrás dos extremos negativos: tendrás una IA que se entrena a sí misma para seleccionar cosas para las que fue entrenada para seleccionar en función del sesgo programado, y tendrás el otro extremo, el sesgo humano inherente”.
Una repetición completa del panel está disponible en epic.org.
Las opiniones expresadas por los invitados son las suyas propias y no las de SAG-AFTRA. Cualquier mención de productos o servicios no implica el respaldo de SAG-AFTRA.
Foto: En el sentido de las agujas del reloj desde la izquierda, el director ejecutivo de EPIC, Alan Butler, la consultora legal de SAG-AFTRA, Danielle Van Lier, la directora del programa Tech Equity, Samantha Gordon, la directora del programa de tecnología y trabajo del Centro Laboral de UC Berkeley, Annette Bernhardt, durante el panel virtual 'Evaluaciones de riesgos y riesgos: una mirada a las regulaciones propuestas de inteligencia artificial y privacidad de California' el 21 de noviembre.