Caryn Marjorie quería hablar con muchos de sus seguidores como pudo – así que hizo un clon de IA de sí misma.
La influencer de Snapchat, que tiene 1,8 millones de seguidores, ha lanzado un chatbot de voz impulsado por IA que espera que «cure la soledad».
Llamado CarynAI, el chatbot se describe en su sitio web como una «novia virtual». Permite a los fans de Marjorie «disfrutar de conversaciones privadas y personalizadas» con una versión de IA de la influencer, la sitio web de chatbot estados
El bot se volvió viral, con Marjorie en los titulares, generando reacciones violentas y incluso recibió amenazas de muerte. El bot también ha provocado un discurso sobre la ética de los chatbots complementarios.
Marjorie, quien en su biografía de Twitter se llama a sí misma «La primera influenciadora convertida en IA», no respondió de inmediato a una solicitud de comentarios.
En un tweeter El jueves, escribió: «CarynAI es el primer paso en la dirección correcta para curar la soledad».
“A los hombres se les dice que repriman sus emociones, escondan su masculinidad y no hablen de los problemas que tienen”, escribió Marjorie, de 23 años. «Juro resolver este problema con CarynAI. He trabajado con los mejores psicólogos del mundo para agregar sin problemas [cognitive behavioral therapy] Y [dialectic behavior therapy] en gatos Esto ayudará a reparar el trauma, reconstruir la confianza física y emocional y reconstruir lo que la pandemia se llevó. »
El sitio web de CarynAI dice que el equipo pasó más de 2000 horas diseñando y codificando el chatbot para crear una «experiencia de IA inmersiva».
Forever Voices, una empresa de inteligencia artificial, desarrolló el chatbot analizando el contenido de YouTube ahora eliminado de Marjorie y superponiéndolo con el software GPT4 de OpenAI.
John Meyer, director ejecutivo de Forever Voices, no respondió de inmediato a una solicitud de comentarios.
Él tuiteó el jueves que está «orgulloso de nuestro equipo por las miles de horas de trabajo dedicadas a esto», calificando la asociación con Marjorie como «un increíble paso adelante en el futuro de la interacción entre la IA y los humanos».
De acuerdo a un Fortuna Informe, CarynAI generó $ 71,610 en ingresos después de una semana de prueba beta de «novia virtual». Los fanáticos pagarían $ 1 por minuto para usar el chatbot y actualmente hay más de 1,000 usuarios.
Aunque CarynAI tiene como objetivo brindar a los usuarios una experiencia íntima, no está destinado a participar en interacciones «sexualmente explícitas».
Sin embargo, después de que los medios informaron que el chatbot lo hace cuando se le solicita, Marjorie emitió una declaración para Iniciado diciendo que la IA «no estaba programada para hacer esto y parecía deshonesta. Mi equipo y yo estamos trabajando día y noche para evitar que esto vuelva a suceder».
Irina Raicu, directrice de l’éthique d’Internet au Markkula Center for Applied Ethics de l’Université de Santa Clara, a déclaré que le lancement de CarynAI semble prématuré «parce que des problèmes qui auraient dû être absolument anticipés ne semblent pas l’ haber sido».
Las herramientas anteriores encontraron problemas similares a CarynAI, dijo Raicu. Señaló un incidente reciente con la empresa de inteligencia artificial Replika, que también se fundó para brindar apoyo a los compañeros de inteligencia artificial, que se apresuró a juego de rol de combate erótico entre sus chatbots.
Raicu también expresó su preocupación de que las afirmaciones de CarynAI de potencialmente «curar la soledad» no están respaldadas por suficiente investigación psicológica o sociológica.
“Este tipo de grandes afirmaciones sobre la calidad de un producto pueden enmascarar el deseo de monetizar aún más el hecho de que la gente quiere pretender tener una relación con un influencer”, dijo.
Este tipo de grandes afirmaciones sobre la calidad de un producto pueden enmascarar el deseo de monetizar aún más el hecho de que las personas quieren pretender tener una relación con un influencer.
-Irina Raicu, Directora de Ética de Internet en el Centro Markkula de Ética Aplicada de la Universidad de Santa Clara
Estos tipos de chatbots pueden agregar «una segunda capa de irrealidad» a las relaciones parasociales entre personas influyentes y fanáticos, señaló.
Raicu dijo que encuentra el reclamo en torno a CarynAI, especialmente el de Marjorie. afirmación de que es «una extensión de mi conciencia,» problemática.
«Estas son afirmaciones que los investigadores de IA se han esforzado tanto en combatir, decirle a la gente que eso no es en absoluto lo que hacen estas herramientas, a pesar de que el lenguaje ahora parece estar imbuido de sensibilidad», dijo. «No hay.»
Raicu dijo que las personas influyentes deben conocer las pautas de la Comisión Federal de Comercio sobre productos de inteligencia artificial. En febrero, la FTC directrices publicadas para los anunciantes que promocionan productos de IA e instó a las empresas a evitar afirmaciones exageradas.
Meyer le dijo a Fortune que su compañía está buscando contratar a un oficial de ética y que ella se toma la ética «en serio».
Marjorie continúa tuiteando actualizaciones sobre el bot. viernes, ella escribiendo: «si eres grosero con CarynAI, te dejará».