El tráfico automático generado por robots en Internet supera por primera vez al de humanos
Por primera vez en la historia, el tráfico generado en internet por parte de robots supera al de la actividad propiamente humana. Los programas creados para acceder de modo automático a páginas web suponen ya la mayoría del tráfico que se mueve por la red, según un estudio realizado por la consultora Incapsula, que afirma que las transacciones automatizadas representan el 56% del total de este tipo de acciones en internet frente al 44% que realizan las personas. La mala noticia es que los 'robots malos' ganan a los 'buenos' porque suponen el 29% de todo el tráfico, mientras que los no intrusivos se quedan en el 27%.
Los robots intrusivos más numerosos son los programas suplantadores que simulan ser personas para colar comentarios en webs o en blogs
Cosmomedia | ValladolidUn robot (también conocido como 'bot' en el ámbito informático) es un programa que imita el comportamiento de un ser humano. En algunos sitios de Internet un 'bot' puede realizar tareas rutinarias de revisión, recopilación o edición, entre otras. En otras webs como Youtube existen los 'bot conversacionales', que responden a cuestiones sobre el propio contenido del sitio. De este modo, los robots cubren desde tráfico que se considera bueno, como los rastreos que realizan los buscadores (como Google) para añadir páginas a sus índices o las webs para añadir información de otras páginas (el protocolo RSS que recopila últimas entradas o los flujos de conversaciones en Twitter), hasta el malo, el que generan ordenadores que envían virus y correos de 'spam' o atacan a otras máquinas (hackeo).
Lo más numeroso dentro del tráfico malo son los programas suplantadores (22%), robots que simulan ser personas para colar comentarios en webs o en blogs. Y estos son cada vez más sofisticados y perjudiciales porque no solo pueden afectar a la posición de la página en Google o la experiencia del usuario durante la lectura, sino que también pueden perjudicar seriamente la integridad de la web.
También hay robots que van captando correos electrónicos que se publican en las webs para vender listas de direcciones a las que luego se les envía 'spam', o que copian el contenido de las páginas para ponerlo en otras que se crean de forma automática para ganar presencia, favorecer a otras páginas o alojar campañas publicitarias. Es un uso fraudulento del llamado 'scraping', que legalmente se puede usar para comparar precios.
Perjudicial para la publicidad
La actividad de los robots en las páginas web resulta especialmente negativa para los anunciantes que publicitan sus productos y servicios en internet. Puede ser perjudicial, por ejemplo, la multitud de empresas que escogen el método CPC (Coste Por Click) en Google Adwords. Multitud de robots hacen clic en sus anuncios y, sin embargo, detrás de ese gasto no se encuentra ningún potencial cliente de su producto. Ni siquiera una presencia humana. Por este motivo, Google AdWords trata de ir siempre un paso por delante que le permita detectar estos "clics ilegales" y evitar así posibles pérdidas.