(CNN)– Si le crees a Mark Zuckerberg, el futuro es virtual.
El año pasado, Meta invirtió 10 mil millones en Facebook Reality Labs, la parte de la compañía que desarrolla dispositivos y software de realidad virtual y aumentada. La división es responsable de dar vida a la visión del fundador de Facebook de un mundo donde la realidad virtual y la realidad aumentada lo cambian todo, desde comprar comestibles hasta salir con amigos.
Zuckerberg llegó incluso a cambiar el nombre corporativo de la empresa de Facebook a Meta el año pasado, un movimiento que refleja su enfoque en la construcción del llamado metaverso, que es un concepto de ciencia ficción que prevé, esencialmente, una versión inmersiva de Internet. Y Meta ha dicho que tiene la intención de invertir incluso más de esos 10.000 millones de dólares durante los próximos años.
Como uno de los grandes ganadores de la Web 2.0, con recursos que incluyen recursos masivos y miles de millones de usuarios, Meta está en una posición única para dar forma a lo que viene a continuación en Internet.
Lee también: Ann Olivarius, la abogada que propone crear policías cibernéticas para acabar con el acoso de mujeres en Internet
Y se está esforzando por mantener su visión del metaverso al frente y al centro: Zuckerberg dijo la semana pasada que la compañía lanzará una versión de escritorio de su aplicación emblemática de realidad virtual social, Horizon Worlds, a finales de este año para que las personas puedan experimentarla sin auriculares (la compañía tiene también habló sobre una versión móvil de la aplicación ).
Agregó que, en el futuro, serás encarnado por tu Meta avatar, la versión caricaturesca y personalizable de ti mismo que se usa para navegar por la aplicación, justo cuando te pongas los auriculares, “listo para interactuar en Horizon con tus amigos”.
Con este cambio al metaverso, la empresa debe ver un nuevo comienzo a partir de los errores del pasado, como el escándalo de Cambridge Analytica y la desinformación desenfrenada que azota a Facebook.
Pero ya hay un problema que algunos usuarios informaron que surgió en el espacio emergente: el acoso y otros comportamientos no deseados, particularmente en aplicaciones y juegos sociales de realidad virtual, incluido Horizon Worlds.
Los incidentes informados recientemente incluyen comentarios detestables y racistas emitidos por los avatares de otras personas, así como manoseo y besos.
El acoso tiene una larga historia en los espacios digitales, pero el medio literalmente directo de la realidad virtual puede hacer que se sienta mucho más real que en una pantalla plana. Y las empresas detrás de varias de las aplicaciones sociales de realidad virtual más populares no quieren hablar de eso: Meta, junto con las populares aplicaciones sociales de realidad virtual VRChat y Rec Room, rechazaron las solicitudes de entrevistas de CNN Business sobre cómo están luchando contra el acoso en la realidad virtual.
Pero es casi seguro que el problema se volverá más común a medida que los auriculares más baratos y potentes alienten a un número creciente de personas a pagar por la tecnología: actualmente puede comprar el Quest 2 por $ 299, lo que lo hace más barato (y más fácil de encontrar) que una PlayStation 5 de Sony.
“Creo que [el acoso] es un problema que debemos tomar en serio en la realidad virtual, especialmente si queremos que sea un espacio en línea acogedor, un espacio en línea diverso”, dijo Daniel Castro, vicepresidente de la Fundación de Innovación y Tecnología de la Información.
“Aunque ves un comportamiento realmente malo en el mundo real, creo que puede empeorar en línea”, agregó.
Burbujas, bloques y silencios
La realidad virtual no se volvió accesible para las masas de la noche a la mañana: para Meta, comenzó con la compra de Oculus VR por parte de la compañía en 2014, y en los años posteriores, la compañía ha lanzado una serie de auriculares que son cada vez más capaces, asequibles y portátiles.
Ese trabajo está dando sus frutos, ya que los auriculares Meta’s Quest representaron aproximadamente el 80% de los auriculares VR enviados el año pasado, según Jitesh Ubrani, gerente de investigación del investigador de mercado tecnológico IDC.
Y a medida que más personas pasan tiempo en la realidad virtual, el mal comportamiento que puede ocurrir se vuelve más nítido. Es difícil saber cuán generalizado es el acoso de VR, pero un informe de diciembre del Centro sin fines de lucro para contrarrestar el odio digital da una idea de su prevalencia en VRChat.
Harassment — recently reported incidents include obnoxious and racist comments spouted by other people’s avatars, as well as groping and kissing — is a problem in VR, and it’s likely to get worse. https://t.co/198ysBuN4s
— CNN (@CNN) May 5, 2022
Allí, los investigadores identificaron 100 posibles violaciones de las políticas de realidad virtual de Meta, incluido el acoso y el abuso sexual, durante 11 horas y 30 minutos que se dedicaron a registrar la actividad de los usuarios.
Con la esperanza de detener y prevenir el mal comportamiento, las aplicaciones de realidad virtual social tienden a ofrecer una serie de herramientas comunes que las personas pueden usar.
Estas herramientas van desde la capacidad de configurar una burbuja invisible de espacio personal a tu alrededor para evitar que otros avatares se acerquen demasiado a ti, hasta silenciar a las personas que no quieres escuchar, bloquearlas por completo para que no puedan ver o escucharte y viceversa.
Lee también: ¿Cómo la brecha de género en la ciencia y la tecnología afecta en las decisiones de las mujeres del mañana?
Informar sobre el mal comportamiento y las prácticas de moderación vigentes en la realidad virtual pueden ser similares a las de los juegos en línea. En ocasiones, los usuarios pueden votar para expulsar a alguien de un espacio de realidad virtual.
Experimenté esto de primera mano recientemente cuando me pidieron votar si expulsar a una persona de la plaza de Horizon Worlds de Meta después de que se acercaron repetidamente a mí y a otros usuarios, diciendo: “Por el cierto, estoy soltero”. (Ese usuario fue expulsado).
Los moderadores humanos también se utilizan para responder a las quejas de mal comportamiento, y las aplicaciones pueden suspender o prohibir a los usuarios si su comportamiento es lo suficientemente atroz.
Horizon Worlds, VRChat y Rec Room ofrecen este tipo de funciones de seguridad. Horizon Worlds agregó su propia zona de amortiguamiento predeterminada de cuatro pies alrededor de los avatares de los usuarios en febrero, unos tres meses después del lanzamiento de la aplicación.
VRChat y Rec Room, que han existido durante años, también inician a los usuarios con una zona de amortiguamiento predeterminada.
“Esos pasos van en la dirección correcta”, dijo Castro, aunque reconoce que las diferentes aplicaciones y plataformas, así como los espacios públicos de realidad virtual donde cualquiera puede pasar, en comparación con los espacios privados donde las invitaciones son limitadas, vendrán con diferentes desafíos de moderación de contenido.
Estas herramientas seguramente también evolucionarán con el tiempo, a medida que más personas usen la realidad virtual.
En un comunicado, Bill Stillwell, gerente de producto de integridad de VR en Meta, dijo: “Seguiremos realizando mejoras a medida que aprendamos más sobre cómo las personas interactúan en estos espacios“.
Una carga para las víctimas
Si bien algunas de las herramientas actuales se pueden usar de manera proactiva, muchas de ellas solo son útiles después de que ya ha sido acosado, señaló Guo Freeman, profesor asistente de computación centrada en el ser humano en la Universidad de Clemson que estudia juegos y realidad virtual social. Por eso, ella siente que ponen una carga sobre las víctimas.
Un esfuerzo para facilitar la detección y denuncia del acoso proviene de una empresa llamada Modulate. Su software, conocido como ToxMod, utiliza inteligencia artificial para monitorear y analizar lo que dicen los usuarios, luego predice cuándo alguien está soltando lenguaje acosador o racista, por ejemplo, y no simplemente hablando basura.
Lee también: Compras en el Metaverso tendrán una comisión de casi un 50%
ToxMod puede entonces alertar a un moderador humano o, en algunos casos, configurarse para silenciar automáticamente a los usuarios infractores. Rec Room lo está probando en algunos de los espacios públicos de la aplicación VR.
Tiene sentido que los fabricantes de aplicaciones estén lidiando con los desafíos de moderación que conlleva la ampliación y considerando si los nuevos tipos de automatización podrían ayudar: el mercado de la realidad virtual aún es pequeño en comparación con el de los videojuegos de consola, pero está creciendo rápidamente.
IDC estima que se enviaron casi 11 millones de auriculares VR en 2021, lo que representa un aumento del 96 % con respecto a los 5,6 millones enviados el año anterior, dijo Ubrani. En ambos años, los auriculares Meta’s Quest constituyeron la mayoría de esos envíos.
De alguna manera, ToxMod es similar a la cantidad de empresas de redes sociales que ya moderan sus plataformas, con una combinación de humanos e IA.
Pero la sensación de presencia aguda que los usuarios tienden a experimentar en la realidad virtual, y el hecho de que depende tanto de la comunicación hablada en lugar de la escrita, podría hacer que algunas personas sientan que están siendo espiadas.
“Esto es definitivamente algo en lo que estamos pensando mucho tiempo”, dijo Mike Pappas, CEO de Modulate.
No hay normas establecidas
Un desafío general para abordar el acoso de RV es la falta de acuerdo sobre lo que cuenta como acoso en un espacio virtual versus uno físico. En parte, eso se debe a que, si bien la realidad virtual en sí misma no es nueva (ha existido en diferentes encarnaciones durante décadas), es nueva como medio masivo y, como resultado, está cambiando todo el tiempo.
Esta novedad significa que no hay normas establecidas, lo que puede dificultar que cualquier persona detrás de un visor descubra lo que está bien o no cuando interactúa con otras personas en la realidad virtual.
Un número creciente de niños también ingresa a los espacios virtuales y, como señaló Freeman, lo que un niño puede ver como un juego (como correr y actuar de manera salvaje) un adulto puede verlo como acoso.
Lee también: Patricia Peña, de Fundación Datos Protegidos: “Estamos viviendo situaciones de violencia que son del mundo digital”
“Muchas veces en nuestra investigación, los participantes se sienten muy confundidos acerca de si se trataba o no de un comportamiento de juego o de acoso”, dijo Freeman. El acoso en la realidad virtual también puede adoptar nuevas formas que las personas pueden no tener fuera de línea.
Kelly Guillory, ilustradora de cómics y editora de una revista en línea sobre realidad virtual, tuvo esta experiencia el año pasado después de bloquear en VRChat a un antiguo amigo que había comenzado a actuar de manera controladora y a tener arrebatos emocionales.
Una vez que lo bloqueó, ya no pudo verlo ni escucharlo en VRChat. Pero Guillory, extrañamente, todavía podía percibir su presencia cercana. En varias ocasiones, mientras interactuaba con amigos en la aplicación, el avatar de su acosador se acercaba al grupo.
Ella cree que él sospechaba que su avatar estaba allí, ya que sus amigos solían pronunciar su nombre en voz alta. Él se unía a la conversación, hablando con otras personas con las que ella estaba interactuando.
Pero debido a que Guillory no podía ver ni escuchar su avatar, parecía que sus amigos estaban teniendo una conversación unilateral. Para Guillory, era como si su acosador intentara eludir su bloqueo e imponerle su presencia virtual.
“Las primeras veces que sucedió fue molesto”, dijo. “Pero luego siguió sucediendo”.
Puede sentirse real
Tales experiencias en VR pueden parecer extremadamente reales. Freeman dijo que en su investigación, las personas informaron que tener su avatar agarrado por el avatar de otra persona se sentía realista, especialmente si estaban usando el seguimiento de todo el cuerpo para reproducir los movimientos de sus extremidades.
Una mujer informó que otro usuario de realidad virtual se acercaba a su rostro, como si la hubieran besado, una acción que la asustó, le dijo a Freeman, ya que se sentía similar a alguien haciendo lo mismo en el mundo fuera de línea.
“Debido a que es inmersivo, la característica incorporada de la realidad virtual social, esos comportamientos se sienten realistas, lo que significa que podría sentirse dañino porque se siente físico, la amenaza”, dijo Freeman.
Este fue el caso de Guillory: desarrolló ansiedad por eso y perdió la confianza en las personas en línea, dijo. Eventualmente habló en Twitter sobre el acoso, lo que ayudó.
“Todavía me encanta estar aquí, pero quiero que a la gente le vaya mejor”, dijo.
Deja tu comentario