Lo que necesitas saber
- La ex estrella infantil Mara Wilson advirtió sobre los peligros de la IA generativa, en particular la tendencia de los usuarios a utilizar la tecnología para generar imágenes desnudas de mujeres y niños reales.
- Wilson, de 38 años, reveló que su imagen se había utilizado para crear material de abuso sexual infantil (CSAM) en línea durante años.
- En un ensayo fechado el 17 de enero, Wilson compartió sus pensamientos y propuso posibles soluciones a la amenaza. guardián
Mara Wilson se ha sincerado sobre la «pesadilla» de ser utilizada como material de abuso sexual infantil como ex estrella infantil.
de matilde La actriz de 38 años escribió un ensayo. guardián, En él, advirtió sobre los peligros de la IA generativa, específicamente la reciente tendencia de los usuarios a aprovechar la IA para crear imágenes desnudas y explícitas de mujeres y niños reales.
Wilson se basó en sus propias experiencias como niño actor para enfatizar cuán peligrosa y dañina es esta nueva tendencia tecnológica.
«Desde los cinco hasta los 13 años, fui actriz infantil y, aunque últimamente he escuchado tantas historias horribles sobre el abuso que les sucedía a los niños actores detrás de escena, siempre me sentí segura mientras filmaba», comenzó.
sin embargo, Sra. Doubtfire La actriz dijo que parte de su carrera fue así. Señaló que su imagen fue utilizada en material de abuso sexual infantil (CSAM) en línea antes de que ella «todavía estuviera en la escuela secundaria» y dijo que se sentía amenazado por su relación con el público.
«Aparecí en sitios web fetichistas y fui retocada con Photoshop para convertirla en porno. Hombres adultos me enviaban cartas espeluznantes. No era una niña hermosa. Mi edad incómoda duró desde los 10 años hasta los 25 años. «Solo aparecía en películas familiares, pero era accesible, que es lo que quieren los abusadores de niños. Y nada me hizo más accesible que Internet», continuó.
«No importaba que esas imágenes ‘no fueran mías’ o que el sitio fetichista fuera ‘técnicamente’ legal. Fue una experiencia dolorosa y violadora, y no quería que otros niños vivieran una pesadilla», añadió.
¿Quieres la última cobertura sobre delitos? Suscríbase al boletín gratuito True Crime de actualidadviral para recibir noticias sobre crímenes, cobertura de juicios en curso y detalles de casos intrigantes sin resolver.
Wilson, que ahora es autora y activista de la salud mental, continuó diciendo que le preocupa que la tendencia hacia la IA sexualmente explotadora esté poniendo en riesgo a todas las mujeres y niños, sean figuras públicas o no.
«Los niños cuyos rostros aparecen expuestos en Internet son ahora mucho más fácilmente explotados sexualmente. Millones de niños podrían verse obligados a vivir la misma pesadilla que yo», explicó.
Wilson concluyó su ensayo implorando a los lectores que aprovechen su poder colectivo para dar forma a la forma en que las empresas de tecnología abordan la IA generativa. Dijo que esto se puede lograr en parte boicoteando a las empresas que permiten que la IA cree imágenes sexuales explotadoras, pero cree que debemos ir un paso más allá.
«Necesitamos exigir que las empresas que permitieron que se estableciera CSAM rindan cuentas. Necesitamos exigir salvaguardias legales y tecnológicas», escribió.
«También debemos examinar nuestro propio comportamiento. Nadie quiere pensar que si comparten una foto de su hijo, esa imagen podría enviarse a CSAM. Pero esto es un riesgo y los padres deben proteger a los niños pequeños del riesgo y advertir a los niños mayores», añadió.

:max_bytes(150000):strip_icc():focal(737x272:739x274)/Mara-Wilson-091825-1-c2771fe8aa4441ee9be4faf1ead7c38c.jpg?w=696&resize=696,0&ssl=1)


