Que quieres saber
- TIME detalló cómo una empresa de San Francisco llamada Sama ayudó a crear un sistema de seguridad para ChatGPT.
- Según los informes, los empleados de Sama, con sede en Kenia, ganan alrededor de $ 1,32 y $ 2 por hora, según la antigüedad y el desempeño.
- Luego, a Sama se le encomendó la tarea de etiquetar imágenes explícitas para un proyecto OpenAI desconocido, pero luego se retractó del contrato debido a problemas de legalidad y la ruptura de lazos con OpenAI.
- La historia continúa destacando el impacto humano detrás de la floreciente revolución de la IA.
En una historia complicada de TIME, el trabajo entre OpenAI, la empresa detrás de ChatGPT, y Sana, una empresa con sede en San Francisco que emplea a personas en Kenia llamada Sama. Sama trabaja con algunas de las empresas más grandes de la industria tecnológica, incluidas Google, Meta y Microsoft, en el etiquetado de contenido en imágenes y texto para contenido explícito.
Microsoft ya ha invertido $ 1 mil millones en OpenAI, con otros $ 10 mil millones en camino. Microsoft planea poner IA en todo y, según se informa, aprovechó ChatGPT con Bing.
Sama tiene su sede en San Francisco, pero el trabajo lo realizan trabajadores en Kenia, que ganan entre 1,32 y 2 dólares la hora. Desafortunadamente, para mantener ChatGPT "seguro" para los usuarios, OpenAI tiene que alimentarlo con muchos datos de Internet, que no están filtrados. Entonces, en lugar de usar humanos para filtrar todas las cosas malas, OpenAI (y compañías como Meta con Facebook) usan otras herramientas de IA para eliminar automáticamente ese contenido del conjunto de datos.
Pero para entrenar estas herramientas de seguridad, se necesitan humanos para indexar y etiquetar el contenido.
Al igual que la historia de Facebook de The Verge de 2019, que destacó el impacto psicológico de dicho contenido en los trabajadores, los empleados de Sama también sufrieron un destino similar:
"Un empleado de Sama responsable de leer y etiquetar texto para OpenAI le dijo a TIME que sufría visiones recurrentes después de leer una descripción gráfica de un hombre teniendo sexo con un perro en presencia de un niño. Fue una tortura", dijo. dijo. "Leerás una serie de declaraciones como esa a lo largo de la semana. Para cuando llegue el viernes, te inquieta pensar que la naturaleza traumática del trabajo finalmente llevó a Sama a cancelar todo su trabajo para OpenAI en febrero de 2022 , ocho meses antes de lo previsto.
El contrato total con Sama era por $200,000, y ese contrato establecía que él pagaría "una tarifa por hora de $12.50 a Sama por el trabajo, que es entre seis y nueve veces la cantidad que los empleados de Sama en el proyecto trajeron a casa por hora".
Más tarde, Sama comenzó a probar un nuevo proyecto para OpenAI no relacionado con ChatGPT. Sin embargo, en lugar de texto esta vez, fueron imágenes, incluidas algunas ilegales según la ley estadounidense, como el abuso sexual infantil, la bestialidad, la violación, la esclavitud sexual, la muerte y la violencia. Una vez más, los trabajadores tenían que ver y etiquetar el contenido para que los sistemas de OpenAI pudieran filtrar esos elementos.
Sama, sin embargo, canceló todo el trabajo con OpenAI poco después. La compañía dice que lo hizo debido a preocupaciones de contenido (y problemas legales). Sin embargo, se les dijo a los empleados que la investigación anterior de TIME sobre Sama y Facebook, donde los empleados de Kenia fueron utilizados como moderadores, provocó el cambio debido a las malas relaciones públicas que estaba recibiendo la empresa.
Por supuesto, aunque Sama es irrelevante para OpenAI, el trabajo debe continuar y no está claro quién más lo está haciendo.
Tomando Windows Central
Lamentablemente, la historia de Sama no es inusual. La moderación de contenido en Facebook también fue objeto de quejas similares hace unos años, donde los moderadores tenían que ver imágenes horribles todos los días para eliminarlas del sitio. El objetivo, por supuesto, no es someter a los humanos a este tipo de contenido y hacer que la IA y el aprendizaje automático (ML) lo hagan, pero para entrenar estos sistemas, los humanos deben ser parte del etiquetado inicial de los datos.
El otro problema es el enfoque en la compensación. Mientras que 1,32 dólares es terrible para cualquier persona en un mercado industrializado, para aquellos en economías emergentes como Kenia es bastante decente, rondando el nivel salarial de una secretaria o un maestro. TIME incluso señala que, aunque Sama ha roto sus lazos con OpenAI, sus empleados se encuentran sin trabajo. Del mismo artículo:
"... dijo un empleado de Sama en proyectos de etiquetado de texto. 'Respondimos que para nosotros era una forma de mantener a nuestras familias'. La mayoría de las aproximadamente tres docenas de trabajadores se han transferido a otros flujos de trabajo con salarios más bajos sin los $ 70-a explícitos bono de contenido de un mes otros perdieron sus trabajos Sama entregó su último lote de datos etiquetados a OpenAI en marzo, ocho meses antes de la finalización del contrato.
Así que el problema va en ambos sentidos. Por un lado, ningún ser humano debería tener que ver ese contenido a diario (aunque Sama afirma que se ofrecieron recursos psicológicos a los empleados); por otro lado, algunas personas prefieren hacer este trabajo que nada.
El mayor problema es que no está claro cuál es la alternativa a todo esto si se quiere que la IA tenga futuro. Desafortunadamente, al menos inicialmente, los humanos tienen que ser parte de este proceso de entrenamiento. Sin embargo, el impacto en estos individuos (y en la sociedad en su conjunto) es algo que no se puede medir. o entonces ignorado
Deja una respuesta