Los efectos de la inteligencia synthetic en los adolescentes son matizados y complejos, según un informe de la Asociación Americana de Psicología que llama a los desarrolladores a priorizar las características que protegen a los jóvenes de la explotación, la manipulación y la erosión de las relaciones del mundo actual.
“La IA ofrece nuevas eficiencias y oportunidades, sin embargo, su integración más profunda en la vida diaria requiere una consideración cuidadosa para garantizar que las herramientas de IA sean seguras, especialmente para los adolescentes”, según el informe, titulada “inteligencia synthetic y bienestar de los adolescentes: un aviso de salud APA”. “Instamos a todos los interesados a garantizar que la seguridad juvenil se considere relativamente temprano en la evolución de la IA. Es elementary que no repitamos los mismos errores dañinos cometidos con las redes sociales”.
El informe fue escrito por un panel asesor de expertos y sigue otros dos informes de APA sobre el uso de las redes sociales en la adolescencia y las recomendaciones saludables de contenido de video.
El informe de IA señala que la adolescencia, que outline como edades de 10 a 25 años, es un largo período de desarrollo y esa edad “no es un marcador infalible para la madurez o la competencia psicológica”. También es un momento de desarrollo crítico del cerebro, que defiende las salvaguardas especiales dirigidas a usuarios más jóvenes.
“Al igual que las redes sociales, la IA no es inherentemente buena ni mala”, dijo el jefe de psicología de APA, Mitch Prinstein, PhD, quien encabezó el desarrollo del informe. “Pero ya hemos visto casos en los que los adolescentes desarrollaron ‘relaciones’ poco saludables e incluso peligrosas con los chatbots, por ejemplo. Algunos adolescentes pueden ni siquiera saber que están interactuando con AI, por lo que es essential que los desarrolladores establezcan baratería en su lugar ahora”.
El informe hace una serie de recomendaciones para asegurarse de que los adolescentes puedan usar IA de manera segura. Estos incluyen:
Asegurar que haya límites saludables con relaciones humanas simuladas. Los adolescentes tienen menos probabilidades que los adultos a cuestionar la precisión y la intención de la información ofrecida por un bot, en lugar de un humano.
Creación de valores predeterminados apropiados para la edad en la configuración de privacidad, límites de interacción y contenido. Esto implicará transparencia, supervisión y apoyo humano y pruebas rigurosas, según el informe.
Usos alentadores de la IA que pueden promover un desarrollo saludable. La IA puede ayudar a hacer una lluvia de concepts, crear, resumir y sintetizar información, todo lo cual puede facilitar que los estudiantes entiendan y retengan conceptos clave, señala el informe. Pero es elementary que los estudiantes conozcan las limitaciones de la IA.
Limitar el acceso y el compromiso con el contenido dañino e inexacto. Los desarrolladores de IA deben construir protecciones para evitar la exposición de los adolescentes al contenido dañino.
Protección de la privacidad y semejanzas de datos de los adolescentes. Esto incluye limitar el uso de los datos de los adolescentes para la publicidad dirigida y la venta de sus datos a terceros.
El informe también exige una educación integral de alfabetización de IA, integrándola en los planes de estudio básicos y el desarrollo de pautas nacionales y estatales para la educación de alfabetización.
“Muchos de estos cambios pueden ser realizados de inmediato por padres, educadores y adolescentes mismos”, dijo Prinstein. “Otros requerirán cambios más sustanciales por parte de los desarrolladores, formuladores de políticas y otros profesionales de la tecnología”.
Además del informe, los recursos y orientación adicionales para los padres sobre la IA y el mantenimiento de los adolescentes seguros y para los adolescentes en la alfabetización de IA están disponibles en APA.org.