Botify AI eliminó estos bots después de hacer preguntas sobre ellos, pero otros permanecen. La compañía dijo que tiene filtros establecidos para evitar que se creen tales bots de carácter de menores, pero que no siempre funcionan. Artem Rodichev, el fundador y CEO de Ex-Human, que opera Botify AI, me dijo que tales problemas son “un desafío en toda la industria que afecta a todos los sistemas de IA conversacionales”. Para los detalles, que no se habían informado previamente, debería Lea toda la historia.
Dejando de lado el hecho de que los bots que probé fueron promovidos por Botify AI como personajes “destacados” y recibieron millones de me gusta antes de ser eliminados, la respuesta de Rodichev destaca algo importante. A pesar de su gran popularidad, los sitios de compañía de IA operan principalmente en un salvaje oeste, con pocas leyes o incluso reglas básicas que los rigen.
¿Qué están ofreciendo exactamente estos “compañeros” y por qué han crecido tan populares? La gente ha estado derramando sus sentimientos a la IA desde los días de Eliza, un simulacro psicoterapeuta Chatbot construido en la década de 1960. Pero es justo decir que la moda precise para los compañeros de IA es diferente.
En términos generales, estos sitios ofrecen una interfaz para chatear con personajes de IA que ofrecen historias de fondo, fotos, movies, deseos y peculiaridades de personalidad. Las compañías, incluidas replika, personaje. AI y muchos otros, ofrecen personajes que pueden desempeñar muchos roles diferentes para los usuarios, actuar como amigos, socios románticos, mentores de citas o confidentes. Otras compañías le permiten construir “gemelos digitales” de personas reales. Miles de creadores de contenido adulto han creado versiones de AI de sí mismas para chatear con seguidores y enviar imágenes sexuales generadas por IA las 24 horas del día. Si el deseo sexual entra o no en la ecuación, Los compañeros de IA difieren de su chatbot de variedad de jardín en su promesa, implícita o explícita, que se pueden tener relaciones genuinas con IA.
Si bien las compañías ofrecen directamente a muchos de estos compañeros que las hacen, también hay una industria floreciente de compañeros de IA “con licencia”. Puede comenzar a interactuar con estos bots antes de lo que piensa. Ex-Human, por ejemplo, autoriza sus modelos a Grindr, que está trabajando en un “AI Wingman” que ayudará a los usuarios a realizar un seguimiento de las conversaciones y, finalmente, incluso puede fechar a los agentes de IA de otros usuarios. Otros compañeros están surgiendo en plataformas de videojuegos y probablemente comenzarán a aparecer en muchos de los variados lugares en los que pasamos tiempo en línea.
Se han presentado varias críticas, e incluso demandas, contra los sitios de compañía de IA, y estamos comenzando a ver cómo se desarrollarán. Uno de los temas más importantes es si las empresas pueden ser responsables de los resultados dañinos de los caracteres de IA que han hecho. Las empresas de tecnología han sido protegidas bajo la Sección 230 de la Ley de Comunicaciones de los Estados Unidos, que en common sostiene que las empresas no son responsables de las consecuencias del contenido generado por el usuario. Pero esto depende de la thought de que las empresas simplemente ofrecen plataformas para las interacciones del usuario en lugar de crear contenido en sí mismos, una noción que los bots de compañía de IA complican al generar respuestas dinámicas y personalizadas.
La cuestión de la responsabilidad se probará en una demanda de alto riesgo contra el carácter. demandado En octubre, por una madre que alega que uno de sus chatbots jugó un papel en el suicidio de su hijo de 14 años. Un juicio comenzará en noviembre de 2026. (Un portavoz de personaje. AI, aunque no comenta sobre litigios pendientes, dijo que la plataforma es para entretenimiento, no compañía. El portavoz agregó que la compañía ha lanzado características de seguridad para los adolescentes, incluido un modelo separado y nuevos sistemas de detección e intervención, así como “los renunciadores para dejar en claro que el personaje no es una persona actual y no debería ser un consejo de hecho o de hecho. También ha escrito recientemente sobre otro chatbot en una plataforma llamada Nomi, que dio Instrucciones claras a un usuario sobre cómo suicidarse.
Otra crítica tiene que ver con la dependencia. Los sitios complementarios a menudo informan que los usuarios jóvenes pasan una o dos horas por día, en promedio, charlando con sus personajes. En enero, las preocupaciones de que las personas podrían volverse adictas a hablar con estos chatbots provocaron una serie de grupos de ética tecnológica para presentar un queja Contra Replika con la Comisión Federal de Comercio, alegando que las opciones de diseño del sitio “engañan a los usuarios para que desarrollen archivos adjuntos poco saludables” para el software program “disfrazarse como un mecanismo para la relación humana a humana”.