En el clásico modelo Bias Voter, tenemos 2 parámetros. Parámetro de sesgo y parámetro obstinado. (Para la estabilidad debemos tener ambos parámetros menores a 1)
Si el parámetro obstinado para un nodo en particular no cambia hasta que se alcanza un punto estable, es decir, hasta que la opinión actual y la siguiente opinión de todos los nodos sean iguales, entonces tal vez podría compensar la incapacidad de decir no con terquedad. Sin embargo, piénsalo. ¿Cuáles son las probabilidades de que llegue un punto estable si alguno de los usuarios no cambia su opinión? Es mínimo, pero posible.
Considere un escenario donde hay 100 nodos. Se supone que cada nodo (usuario) predice el número de puntos en una imagen en particular. Cada nodo tiene un conjunto de bordes diferente. En otras palabras, a cada usuario se le da un conjunto de opiniones vecinas que pueden ser diferentes o no. Digamos que hay 5 nodos que apuntan a los mismos nodos con el mismo grado. Sin embargo, para estos 5 nodos, las opiniones vecinas pueden no variar mucho y, por lo tanto, digamos que su parámetro obstinado es igual a 1 y su parámetro de sesgo es 0. Sin embargo, para alcanzar la estabilidad, debemos tener ambos parámetros menores que 0. Esto significa cada nodo debe tener una cierta probabilidad de ser terco y también sesgado. Incluso si todos los otros nodos adoptan la misma opinión que estos 5 nodos, no se alcanzará la estabilidad. Aquí, el parámetro obstinado no ha cambiado en absoluto y permanece en cero.
Sin embargo, considere el mismo escenario pero con los parámetros obstinados y sesgados cambiando en cada iteración. Si, al final, los 5 nodos aún adoptan la opinión original y el resto de los 95 nodos también adoptan esta opinión y tampoco cambia en el siguiente paso, aquí hemos alcanzado un punto estable. En esto
En general, si desea mejorar la incapacidad de decir no con solo el parámetro obstinado, es una molestia y también debe tener en cuenta el parámetro de sesgo.