A medida que la tecnología evolucionó, las formas en que los abusadores aprovecharon también evolucionaron. Al darse cuenta de que la comunidad de defensa “no estaba en tecnología”, Southworth fundó la crimson nacional para poner fin al proyecto de crimson de seguridad de la violencia doméstica en 2000 para proporcionar un plan de estudios de capacitación integral sobre cómo “aprovechar el” aprovechar [technology] Para ayudar a las víctimas ”y responsabilizar a los abusadores cuando lo usan mal. Hoy, el proyecto ofrece recursos en su sitio netcomo kits de herramientas que incluyen orientación sobre estrategias como la creación de contraseñas seguras y preguntas de seguridad. “Cuando estás en una relación con alguien”, explica el director Audace Garnett, “pueden conocer el apellido de soltera de tu madre”.
Grandes salvaguardas tecnológicas
Los esfuerzos de Southworth más tarde se extendieron a asesorar a las empresas tecnológicas sobre cómo proteger a los usuarios que han experimentado violencia íntima de socios. En 2020, se unió a Fb (ahora Meta) como su jefa de seguridad de las mujeres. “Lo que realmente me atrajo a Fb fue el trabajo sobre el abuso de imágenes íntimas”, cube, y señala que la compañía había presentado una de las primeras políticas de “sextorción” en 2012. Ahora ahora trabaja en el “hashing reactivo”, que agrega “huellas digitales” a las imágenes que se han identificado como no consensuales, por lo que los supervivientes solo necesitan informarlos una vez que se repiten para que se bloqueen.
Otras áreas de preocupación incluyen “ciberflasión”, en las que alguien podría compartir, digamos, fotos explícitas no deseadas. Meta ha trabajado para evitar eso en Instagram al no permitir que las cuentas envíen imágenes, movies o notas de voz a menos que lo sigan. Sin embargo, además de eso, muchas de las prácticas de Meta en torno al posible abuso parecen ser más reactivos que proactivos. La compañía cube que elimina las amenazas en línea que violan sus políticas contra el acoso escolar y que promueven “violencia fuera de línea. ” Pero a principios de este año, Meta hizo sus políticas sobre el habla en sus plataformas más permisivas. informado CNNy para publicar comentarios transfóbicos y homofóbicos que anteriormente habían sido prohibidos.
Un desafío clave es que la misma tecnología se puede usar para el bien o el mal: una función de seguimiento que es peligrosa para alguien cuyo compañero lo está utilizando para acecharlos podría ayudar a alguien más al tanto del paradero de un acosador. Cuando pregunté a las fuentes qué compañías tecnológicas deberían hacer para mitigar el abuso asistido por tecnología, los investigadores y abogados tendían a tirar sus manos. Uno citó el problema de los abusadores que usan controles parentales para monitorear a los adultos en lugar de los niños: las empresas de tecnología tecnológica no eliminarán esas características importantes para mantener a los niños seguros, y solo hay mucho que pueden hacer para limitar cómo los clientes los usan o mal uso. Garnett de Security Internet dijo que las empresas deberían diseñar tecnología con seguridad en mente “desde el principio”, pero señaló que en el caso de muchos productos bien establecidos, es demasiado tarde para eso. Un par de científicos informáticos señalaron a Apple como una empresa con medidas de seguridad especialmente efectivas: su ecosistema cerrado puede bloquear aplicaciones astutas de terceros y alertar a los usuarios cuando están siendo rastreados. Pero estos expertos también reconocieron que ninguna de estas medidas es infalible.
Durante aproximadamente la última década, las principales compañías tecnológicas con sede en los Estados Unidos, incluidas Google, Meta, Airbnb, Apple y Amazon, han lanzado tableros de asesoramiento de seguridad para abordar este enigma. Las estrategias que han implementado varían. En Uber, los miembros de la junta comparten comentarios sobre “posibles puntos ciegos” y han influido en el desarrollo de herramientas de seguridad personalizables, cube Liz Dank, quien lidera el trabajo sobre la seguridad private y private en la empresa. Un resultado de esta colaboración es la función de verificación de pin de Uber, en la que los pasajeros tienen que dar a los conductores un número único asignado por la aplicación para que comience el viaje. Esto asegura que se están metiendo en el auto correcto.
El enfoque de Apple ha incluido orientación detallada en forma de 140 páginas “Guía del usuario de seguridad private. ” Bajo un título, “Quiero escapar o estoy considerando dejar una relación que no se siente segura”, proporciona enlaces a páginas sobre el bloqueo y la recolección de evidencia y “los pasos de seguridad que incluyen alertas de seguimiento no deseadas”.
Los abusadores creativos pueden pasar por alto este tipo de precauciones. Recientemente, Elizabeth (por privacidad, estamos usando solo su primer nombre) encontró un avión que su ex había escondido dentro de una rueda de su automóvil, unido a un imán y envuelto en cinta adhesiva. Meses después de que el Airtag debutó, Apple había recibido suficiente Informes sobre el seguimiento no deseado Para introducir una medida de seguridad que permita a los usuarios que habían sido alertados de que un avión los seguía ubicando el dispositivo a través del sonido. “Por eso lo había envuelto en cinta adhesiva”, cube Elizabeth. “Para amortiguar el sonido”.
Las leyes juegan al alza
Si las empresas tecnológicas no pueden vigilar la TFA, la policía debería, pero sus respuestas varían. “He visto a la policía decirle a una víctima: ‘No deberías haberle dado la imagen'”, cube Lisa Fontes, psicóloga y experta en management coercitivo, sobre casos en los que las imágenes íntimas se comparten de manera no consensuada. Cuando la gente ha traído a la policía “cámaras de niñera” ocultas plantadas por sus abusadores, Fontes ha escuchado respuestas en la línea de “No se puede probar que lo haya comprado. [or] que él realmente te estaba espiando. Entonces no hay nada que podamos hacer “.