En los últimos años ha surgido una teoría de la conspiración llamada “La teoría muerta de Internet» ha ido ganando velocidad a medida que los grandes modelos de lenguaje (LLM) como ChatGPT generan cada vez más texto e incluso interacciones en redes sociales encontrado en línea. La teoría dice que la mayor parte de la actividad social en Internet hoy en día es artificial y está diseñada para manipular a los humanos para que interactúen con ellos.
El lunes, el desarrollador de software Michael Sayman lanza una nueva aplicación de redes sociales impulsada por IA llamada SocialAI lo que parece dar vida a esta teoría de la conspiración, al permitir a los usuarios interactuar solo con chatbots de IA en lugar de con otros humanos. disponible en la App Store del iPhone, pero hasta ahora ha generado fuertes críticas.
Después de que su creador anunciara SocialAI como “«una red social privada donde recibes millones de comentarios generados por IA que ofrecen comentarios, consejos e ideas sobre cada publicación que realizas», especialista en seguridad de TI, Ian Coldwater. bromeó en X, «Esto parece un infierno». Colin Fraser, desarrollador de software y experto frecuente en inteligencia artificial expresado un sentimiento similar: “No lo digo con mala intención ni como una volcada ni nada parecido, pero seguro que suena como un infierno. Como el infierno con H mayúscula”.
El creador de SocialAI, Michael Sayman, de 28 años, fue anteriormente servido Trabajó como gerente de producto en Google y también se movió entre Facebook, Roblox y Twitter a lo largo de los años. En una publicación de anuncio en X, Sayman escribió que había soñado con crear este servicio durante años, pero que la tecnología aún no estaba lista. Lo ve como una herramienta que puede ayudar a personas solitarias o rechazadas.
«SocialAI está diseñado para ayudar a las personas a sentirse escuchadas y brindar un espacio de reflexión, apoyo y retroalimentación que actúe como una comunidad muy unida. escribió Saymán. “Es una respuesta a todos esos momentos en los que me sentí aislado, o como si necesitara una caja de resonancia pero no la tenía. Sé que esta aplicación no resolverá todos los problemas de la vida, pero espero que pueda ser una pequeña herramienta para que otros piensen, crezcan y se sientan vistos. »
como el borde informes En una excelente descripción general de ejemplos de interacción, SocialAI permite a los usuarios elegir los tipos de seguidores de IA que desean, incluidas categorías como «partidarios», «nerds» y «escépticos». Estos chatbots de IA luego responden a las publicaciones de los usuarios con breves comentarios y reacciones sobre casi cualquier tema, incluido el texto sin sentido «Lorem ipsum».
A veces los bots pueden resultar demasiado útiles. En Bluesky, un usuario pidió instrucciones sobre cómo hacer nitroglicerina a partir de productos químicos domésticos comunes y recibió varias respuestas entusiastas de robots que detallaban los pasos, aunque varios robots proporcionaron diferentes recetas, ninguna de las cuales puede ser completamente precisa.
Los bots de SocialAI tienen limitaciones, como era de esperar. Además de simplemente confabular sobre información incorrecta (que puede ser una característica más que un error en este caso), tienden a utilizar un formato consistente de respuestas cortas que parece algo predeterminado. Su rango emocional simulado también es limitado. Los intentos de provocar reacciones fuertemente negativas por parte de la IA generalmente no tienen éxito, y los bots evitan los ataques personales incluso cuando los usuarios maximizan las configuraciones de trolling y sarcasmo.