Blog > Web Scraping > Poste

¿¿Cómo Scraping mensaje en Websites sin ser bloqueado??

Thursday, April 09, 2020

El web scraping es una técnica que a menudo se emplea para automatizar el comportamiento de navegación humana con el fin de recuperar grandes cantidades de datos de las páginas web de manera eficiente.

Si bien varias herramientas de web scraping, como Octoparse, se están volviendo populares y benefician sustancialmente a las personas en todos los campos, pero hay un problema importante en la actualidad. Un ejemplo sencillo es que el web scraping sobrecarga un servidor web y conduce a un colapso del servidor. Cada vez más propietarios de sitios web han equipado sus sitios con todo tipo de técnicas anti-scraping para bloquear los raspadores, lo que hace que el scraping sea más difícil. Sin embargo, todavía hay formas de luchar contra el bloqueo. En este artículo, hablaremos sobre 5 consejos que puede seguir para evitar el bloqueo.

 

 

1. Disminuya la velocidad del scrape

La mayoría de las actividades de web scraping tienen como objetivo obtener datos lo más rápido posible. Sin embargo, cuando un humano visita un sitio, la navegación será mucho más lenta en comparación con lo que sucede con el web scraping. Por lo tanto, es realmente fácil para el sitio captuarlo al rastrear su velocidad de acceso. Una vez que descubre que estás pasando por las páginas demasiado rápido, sospechará que no eres humano y te bloqueará de forma natural.

Por lo tanto, no sobrecargue el sitio web. Puede poner un retraso de tiempo aleatorio entre las solicitudes y reducir el acceso concurrente a la página a 1-2 páginas cada vez. Aprenda a tratar bien el sitio web, luego podrá seguir raspándolo.

En Octoparse, los usuarios pueden configurar un tiempo de espera para cualquier paso en el flujo de trabajo para controlar la velocidad de raspado. Incluso hay una opción “random” para hacer que el raspado sea más humano.

 

 

 

2. Use servidores proxy

Cuando un sitio detecta que hay varias solicitudes de una sola dirección IP, bloqueará fácilmente la dirección IP. Para evitar enviar todas sus solicitudes a través de la misma dirección IP, puede usar servidores proxy. Un servidor proxy es un servidor (un sistema informático o una aplicación) intermediario que actúa como una solicitud del cliente de muchos otros servidores (de Wikipedia: Proxy server). Le permite enviar solicitudes a sitios web utilizando la IP que configuró, enmascarando su dirección IP real.

Por supuesto, si configura una sola IP en el servidor proxy, su IP seguirá siendo bloqueada fácilmente por el sitio web. Debe crear un grupo de direcciones IP y usarlas al azar para enrutar sus solicitudes a través de una serie de direcciones IP diferentes.

 

Muchos servidores, como las VPN, pueden ayudarlo a obtener IP rotada. Octoparse Cloud Service es compatible con cientos de servidores en la nube, cada uno con una dirección IP única. Cuando tarea de extracción está configurada para ejecutarse en la nube, las solicitudes se realizan en el sitio web de destino a través de varias IP, lo que minimiza las posibilidades de ser rastreado. La extracción local de Octoparse permite a los usuarios configurar proxies para evitar ser bloqueados.

 

 

3. Aplicar diferentes patrones de scraping

Los humanos navegan por un sitio con clics aleatorios o visualizan el tiempo; sin embargo, el web scraping siempre sigue el mismo patrón de rastreo que la lógica específica del robot programado. Por lo tanto, los mecanismos anti-scraping pueden detectar fácilmente el rastreador al identificar los comportamientos de raspado repetitivos realizados en un sitio web.

Deberá cambiar su patrón de raspado de vez en cuando y combinado con clics aleatorios, movimientos del mouse o tiempo de espera para que el raspado de la web sea más humano.

En Octoparse, puede configurar fácilmente un flujo de trabajo en 3-5 minutos. Puede agregar clics y movimientos del mouse fácilmente con arrastres y clics o incluso reconstruir un flujo de trabajo rápidamente, ahorrando mucho tiempo de codificación para los programadores y ayudando a los no codificadores a crear sus propios raspadores fácilmente.

 

 

4. Cambiar de agente de usuario

Un agente de usuario (UA) es una cadena en el encabezado de una solicitud, que identifica el navegador y el sistema operativo para el servidor web. Cada solicitud realizada por un navegador web contiene un agente de usuario. Una cantidad inusualmente grande de solicitudes y uso de agentes de usuario harán que ingrese a un estado bloqueado.

Para superar el bloqueo, debe cambiar la frecuencia de los agentes de usuario en lugar de quedarse con uno.

Many programmers add fake user-agent in the header or manually make a list of user-agents to avoid being blocked. With Octoparse, you can easily enable automatic UA rotation in your crawler to reduce the risk of being blocked.

 

 

 

5. Tenga cuidado con las trampas honeypot

Honeypots son enlaces invisibles para los visitantes normales, pero están en el código HTML y pueden ser encontrados por los raspadores web(web scraping). Son como trampas para detectar el raspador dirigiéndolos a páginas en blanco. Una vez que un visitante particular navega por una página honeypot, el sitio web puede estar relativamente seguro de que no es un visitante humano y comienza a limitar o bloquear todas las solicitudes de ese cliente.

 

Al construir un scraper para un sitio en particular, vale la pena mirar cuidadosamente para verificar si hay un enlace oculto orientado a usuario cuando usa un navegador estándar?

Octoparse usa XPath para capturar con precisión o hacer clic en acciones, evitando hacer clic en los enlaces falsos (vea cómo usar XPath para ubicar el elemento aquí).

 

Todos los consejos proporcionados en este artículo pueden ayudarlo a evitar bloquearse hasta cierto punto. A medida que aumenta la tecnología de rastreo web(web scraping), también seguirá la tecnología anti-scraping. Comparta sus ideas con nosotros o si siente que se puede agregar algo a la lista.

 

¡Descargue Octoparse para iniciar el web scraping o contáctenos para cualquier pregunta sobre el extracción de datos!

Contáctenos Descargarse