La red social del pajarito ofrece una herramienta para salvar "derrapes" de los que el usuario pueda arrepentirse.
10/03/2021 - 18:23hs
Los comentarios belicosos, hirientes o cargados de odio son moneda corriente en las redes, y Twitter es quizás el ejemplo más claro.
Algunos de estos episodios son producto de un arranque accidental, un desliz del que luego el autor puede arrepentirse, aunque muchas de esas veces sea demasiado tarde. Sin embargo, la red social del pajarito ofrece una herramienta para salvar derrapes de este tipo.
Con el propósito de propiciar el "bienestar de la conversación" y evitar el tuiteo de comentarios violentos, irrespetuosos o que puedan representar algún tipo de acoso, Twitter puso en marcha una prueba que ya realizó durante mayo del año pasado en iOS, y durante agosto en Android y en la web, pero que luego paró y no siguió realizando. También tiene una función similar al retuitear.
Desde ahora, tal y como confirmó Twitter mediante un tuit en su cuenta oficial de soporte en la red social, se retorna al test y algunos de sus usuarios en la aplicación de iOS observarán un mensaje de aviso que les recomendará revisar la respuesta que escribieron previo a publicarla.
Es así que Twitter revisará el lenguaje utilizado en la respuesta con el objeto de detectar si se incluye algún término que pueda ser percibido como malsonante o dañino, y notificará al usuario para que "recapacite" antes de publicar el contenido.
Ahora el test no se extiende tanto a iOS como Android como a la versión web, sino que se inicia, de momento, solo con iOS. En principio, se realizará en la versión en inglés de la red social, aunque se desconoce si también podría mostrársele a usuarios que empleen Twitter en otros idiomas.
Habrá que esperar a los resultados de este test inicial para ver si finalmente se prueba en otras plataformas o si se lanza ya oficialmente la funcionalidad.