Fable, una popular aplicación de redes sociales que se describe a sí misma como un refugio para “ratones de biblioteca y observadores compulsivos”, creó una función de resumen de fin de año impulsada por inteligencia artificial que resume los libros que los usuarios leerán en 2024. Estaba destinado a ser lúdico y divertido, pero algunos de los resúmenes adquirieron un tono extrañamente combativo. El resumen del escritor Danny Groves, por ejemplo, le preguntó si “alguna vez estuvo de humor para la perspectiva de un hombre blanco cis heterosexual” después de etiquetarlo como “devoto de la diversidad”.
Mientras tanto, el resumen de la influencer de libros Tiana Trammell terminaba con el siguiente consejo: “No olvides buscar algún autor blanco ocasional, ¿de acuerdo?”
Trammell quedó estupefacta y pronto se dio cuenta de que no estaba sola después de compartir su experiencia con los resúmenes de Fable en Threads. “Recibí múltiples mensajes”, dice, de personas cuyos resúmenes hacían comentarios inapropiados sobre “discapacidad y orientación sexual”.
Desde el debut de Spotify Wrapped, las funciones de resumen anual se han vuelto omnipresentes en Internet, brindando a los usuarios un resumen de cuántos libros y artículos de noticias leyeron, canciones que escucharon y entrenamientos que completaron. Algunas empresas ahora están utilizando la IA para producir o mejorar por completo la forma en que se presentan estas métricas. Spotify, por ejemplo, ahora ofrece un podcast generado por IA donde los robots analizan tu historial de escucha y hacen conjeturas sobre tu vida en función de tus gustos. Fable se unió a la tendencia al utilizar la API de OpenAI para generar resúmenes de los últimos 12 meses de los hábitos de lectura de sus usuarios, pero no esperaba que el modelo de IA escupiera comentarios que tomaran la apariencia de un experto anti-woke. .
Posteriormente, Fable se disculpó en varios canales de redes sociales, incluidos Threads e Instagram, donde publicó un video de un ejecutivo pronunciando el mea culpa. “Lamentamos profundamente el daño causado por algunos de nuestros resúmenes de lectores esta semana”, escribió la compañía en el pie de foto. “Lo haremos mejor”.
Kimberly Marsh Allee, jefa de la comunidad de Fable, le dijo a WIRED antes de la publicación que la compañía estaba trabajando en una serie de cambios para mejorar sus resúmenes de IA, incluida una opción de exclusión voluntaria para las personas que no los quieren y divulgaciones más claras que indiquen que no los quieren. re generado por IA. “Por el momento hemos eliminado la parte del modelo que bromea con el lector y en su lugar el modelo simplemente resume el gusto del usuario por los libros”, dijo.
Después de la publicación, Marsh Allee dijo que Fable había tomado la decisión de eliminar inmediatamente los resúmenes de lectura de 2024 generados por IA, así como otras dos funciones que utilizaban IA.
Para algunos usuarios, ajustar la IA no parece una respuesta adecuada. La escritora de fantasía y romance AR Kaufer quedó horrorizada cuando vio capturas de pantalla de algunos de los resúmenes en las redes sociales. “Necesitan decir que están eliminando por completo la IA. Y tienen que emitir una declaración, no sólo sobre la IA, sino también con una disculpa a los afectados”, afirma Kaufer. “Esta ‘disculpa’ en Threads parece poco sincera, mencionar que la aplicación es ‘juguetona’ como si de alguna manera excusara las citas racistas/sexistas/capacitantes”. En respuesta al incidente, Kaufer decidió eliminar su cuenta de Fable.