#81 Añade funcionalidad en Makefile para encontrar enlaces rotos

Closed
opened 5 years ago by jorgesumle · 6 comments

Lo ideal sería ejecutar algo como wget --spider -o wget.log -e robots=off -w 1 -r -p http://SITIOWEB.web, pero haciéndolo de forma local para no sobrecargar el servidor.

Lo ideal sería ejecutar algo como `wget --spider -o wget.log -e robots=off -w 1 -r -p http://SITIOWEB.web`, pero haciéndolo de forma local para no sobrecargar el servidor.
heckyel commented 4 years ago

Me encontré con broken-link-checker-local pero depende de npm (tiene problemas de seguridad y privacidad véase Node.js removal), habrá que encontrar otro programa similar

Me encontré con [broken-link-checker-local](https://github.com/LukasHechenberger/broken-link-checker-local) pero depende de npm (tiene problemas de seguridad y privacidad véase [Node.js removal](https://www.hyperbola.info/todo/nodejs-removal/)), habrá que encontrar otro programa similar

Gracias por la sugerencia.

wget debería funcionar para hacer lo mismo en local, ¿no? Además, wget suele estar ya instalado en GNU/Linux. Yo no le he dedicado mucho tiempo, ya que el comando anterior ya me sirve y no suelo comprobar los enlaces rotos muy a menudo. O con wget2.

Gracias por la sugerencia. wget debería funcionar para hacer lo mismo en local, ¿no? Además, wget suele estar ya instalado en GNU/Linux. Yo no le he dedicado mucho tiempo, ya que el comando anterior ya me sirve y no suelo comprobar los enlaces rotos muy a menudo. O con [wget2](https://gitlab.com/gnuwget/wget2).
heckyel commented 4 years ago

He revisado con detenimiento esto y al parecer ya lo tenemos resuelto :smiley: solo hace falta ejecutar make serve y luego wget --spider -o wget.log -e robots=off -w 1 -r -p http://localhost:8000/

Incluso podríamos escribirlo como tarea al Makefile

He revisado con detenimiento esto y al parecer ya lo tenemos resuelto :smiley: solo hace falta ejecutar `make serve` y luego `wget --spider -o wget.log -e robots=off -w 1 -r -p http://localhost:8000/` Incluso podríamos escribirlo como tarea al Makefile

Ah, genial, ¿puedes mandar un pull request? Pero lo he ejecutado en local y parece que no mira si los enlaces externos están rotos, o algo va mal.

La tarea se podría llamar broken_links, y habría que añadir el nombre del archivo generado (enlaces_rotos.txt o algo así) al .gitignore.

Ah, genial, ¿puedes mandar un *pull request*? Pero lo he ejecutado en local y parece que no mira si los enlaces externos están rotos, o algo va mal. La tarea se podría llamar `broken_links`, y habría que añadir el nombre del archivo generado (`enlaces_rotos.txt` o algo así) al `.gitignore`.
heckyel commented 4 years ago

[ok] entonces el comando debería ser así wget --spider -nd -nv -H -o wget.log -e robots=off -w 2 -r -p http://localhost:8000/

-nd, abreviatura de --no-directories, evita que wget cree una jerarquía de directorios en su servidor (incluso cuando está configurado solo para spider).

-nv, abreviatura de --no-verbose, impide que wget genere información adicional que no es necesaria para identificar enlaces rotos.

-H, abreviatura de --span-hosts, hace que wget rastree subdominios y dominios distintos al primario (es decir, sitios externos).

-w 2, abreviatura de --wait, indica a wget que espere 2 segundos entre solicitudes para evitar bombardear el servidor, minimizando cualquier impacto en el rendimiento.

[ok] entonces el comando debería ser así `wget --spider -nd -nv -H -o wget.log -e robots=off -w 2 -r -p http://localhost:8000/` -`nd`, abreviatura de `--no-directories`, evita que wget cree una jerarquía de directorios en su servidor (incluso cuando está configurado solo para spider). -`nv`, abreviatura de `--no-verbose`, impide que wget genere información adicional que no es necesaria para identificar enlaces rotos. -`H`, abreviatura de `--span-hosts`, hace que wget rastree subdominios y dominios distintos al primario (es decir, sitios externos). -`w 2`, abreviatura de `--wait`, indica a wget que espere 2 segundos entre solicitudes para evitar bombardear el servidor, minimizando cualquier impacto en el rendimiento.

Ya era hora de que cerrara esto ( d09506372b). Muchas gracias @heckyel

Ah, por cierto, también existe Link Checker, que es software libre.

Ya era hora de que cerrara esto (https://notabug.org/Freak-Spot/Freak-Spot/commit/d09506372baa3df823740710459cd29f8c7e45b1). Muchas gracias @heckyel Ah, por cierto, también existe [Link Checker](https://validator.w3.org/checklink), que es software libre.
Sign in to join this conversation.
Loading...
Cancel
Save
There is no content yet.