Facebook anunció nuevas herramientas para detener los conflictos en los grupos
Los grupos en Facebook son una de las herramientas más importantes de la red social, especialmente por eso: crean sociedades que permiten la interacción de un conjunto de personas con base en los gustos o intereses de estos, y cuyo objetivo es fortalecer sus relaciones dentro de la virtualidad.
En pocas palabras, los grupos le dan a Facebook el verdadero status de “red social”. Por esto, para este ‘gigante de Internet’ es de suma importancia mantener el óptimo desarrollo de esta herramienta y, por supuesto, fortalecer aquellos ‘fallos’ que hoy en día se podrían considerar como problemáticos dentro de su funcionamiento.
En pro de esto, Facebook anunció una serie de cambios que apoyarán a los creadores de comunidades, más conocidos como “administradores”, para que sean estos los que en realidad tengan el control de los grupos y puedan tener todas las opciones para mediar de la mejor forma en sus respectivas comunidades.
Nueva página de inicio para administradores
Así como en el pasado se han creado distintos tipos de ‘feed’ o páginas de inicio para otras herramientas (como Business Suite para las Fan Page), Facebook decidió crear una nueva página de inicio en la que los administradores de los grupos podrán encontrar funciones y configuraciones especialmente diseñadas para satisfacer las necesidades propias de su status dentro de su comunidad.
De esta forma, con esta nueva experiencia los administradores podrán observar y enlistar de forma organizada aquellos temas que se podrían catalogar como urgentes dentro de su grupo: número de miembros, nuevos participantes, nuevas publicaciones, publicaciones solicitadas y comentarios que al considerarse como ilícitos dentro de las normas comunitarias han sido reportados.
Además, este ‘feed’ cuenta con un sistema novedoso en el que la organización y claridad son dos componentes a destacar.
Moderador de conflictos en el grupo
Uno de los mayores problemas a los que se enfrenta todo administrador es la forma en que la delicada línea que divide la paz del conflicto se rompe con facilidad en alguna publicación.
Aunque se supone que todos los miembros de una comunidad virtual hacen parte de la misma en busca de personas que compartan sus gustos o intereses, esto no significa que todos y cada uno de ellos piensen de forma similar y exacta sobre cada tema de la vida.
Por ejemplo, en un grupo que tiene como unión la pasión por un equipo de fútbol en específico, no todos los miembros tienen que pensar de forma similar en cuanto a la política de su país. No son robots y, como es de esperarse, cada uno es un universo diferente.
Ante esto, es lógico que un administrador no pueda controlar, ni siquiera intentar, que todos los miembros de su grupo piensen de la misma manera; sin embargo, sí puede intervenir para evitar al máximo los roces entre sus ‘compañeros grupales’ y acabar de raíz con cualquier discusión que se genere en la caja de comentarios de las publicaciones.
Para esto se creó Alertas de Conflicto, una herramienta con base en la Inteligencia Artificial que desarrollará un sistema de aprendizaje para detectar, corregir y terminar con las discusiones que se presenten al interior de un grupo.
Según Facebook, este nuevo “moderador” es una función que “notifica a los administradores cuándo podría haber conversaciones controversiales o poco saludables en el grupo, a fin de que puedan tomar medidas al respecto”.
Como es lógico, este tipo de sistemas pueden ser engañados por los usuarios de Facebook por medio de un lenguaje coloquial o signos en lugar de letras; pero es precisamente sobre esta situación que Facebook está trabajando para que en el futuro el “moderador virtual” pueda tomar “pistas obvias” y detectar de forma sencilla y rápida las conversaciones pasadas de tono en cualquier publicación.
Fuente: Infobae