Lo ideal sería ejecutar algo como wget --spider -o wget.log -e robots=off -w 1 -r -p http://SITIOWEB.web, pero haciéndolo de forma local para no sobrecargar el servidor.
Lo ideal sería ejecutar algo como `wget --spider -o wget.log -e robots=off -w 1 -r -p http://SITIOWEB.web`, pero haciéndolo de forma local para no sobrecargar el servidor.
Me encontré con broken-link-checker-local pero depende de npm (tiene problemas de seguridad y privacidad véase Node.js removal), habrá que encontrar otro programa similar
Me encontré con [broken-link-checker-local](https://github.com/LukasHechenberger/broken-link-checker-local) pero depende de npm (tiene problemas de seguridad y privacidad véase [Node.js removal](https://www.hyperbola.info/todo/nodejs-removal/)), habrá que encontrar otro programa similar
wget debería funcionar para hacer lo mismo en local, ¿no? Además, wget suele estar ya instalado en GNU/Linux. Yo no le he dedicado mucho tiempo, ya que el comando anterior ya me sirve y no suelo comprobar los enlaces rotos muy a menudo. O con wget2.
Gracias por la sugerencia.
wget debería funcionar para hacer lo mismo en local, ¿no? Además, wget suele estar ya instalado en GNU/Linux. Yo no le he dedicado mucho tiempo, ya que el comando anterior ya me sirve y no suelo comprobar los enlaces rotos muy a menudo. O con [wget2](https://gitlab.com/gnuwget/wget2).
He revisado con detenimiento esto y al parecer ya lo tenemos resuelto :smiley: solo hace falta ejecutar make serve y luego wget --spider -o wget.log -e robots=off -w 1 -r -p http://localhost:8000/
Incluso podríamos escribirlo como tarea al Makefile
He revisado con detenimiento esto y al parecer ya lo tenemos resuelto :smiley: solo hace falta ejecutar `make serve` y luego `wget --spider -o wget.log -e robots=off -w 1 -r -p http://localhost:8000/`
Incluso podríamos escribirlo como tarea al Makefile
Ah, genial, ¿puedes mandar un pull request? Pero lo he ejecutado en local y parece que no mira si los enlaces externos están rotos, o algo va mal.
La tarea se podría llamar broken_links, y habría que añadir el nombre del archivo generado (enlaces_rotos.txt o algo así) al .gitignore.
Ah, genial, ¿puedes mandar un *pull request*? Pero lo he ejecutado en local y parece que no mira si los enlaces externos están rotos, o algo va mal.
La tarea se podría llamar `broken_links`, y habría que añadir el nombre del archivo generado (`enlaces_rotos.txt` o algo así) al `.gitignore`.
[ok] entonces el comando debería ser así wget --spider -nd -nv -H -o wget.log -e robots=off -w 2 -r -p http://localhost:8000/
-nd, abreviatura de --no-directories, evita que wget cree una jerarquía de directorios en su servidor (incluso cuando está configurado solo para spider).
-nv, abreviatura de --no-verbose, impide que wget genere información adicional que no es necesaria para identificar enlaces rotos.
-H, abreviatura de --span-hosts, hace que wget rastree subdominios y dominios distintos al primario (es decir, sitios externos).
-w 2, abreviatura de --wait, indica a wget que espere 2 segundos entre solicitudes para evitar bombardear el servidor, minimizando cualquier impacto en el rendimiento.
[ok] entonces el comando debería ser así `wget --spider -nd -nv -H -o wget.log -e robots=off -w 2 -r -p http://localhost:8000/`
-`nd`, abreviatura de `--no-directories`, evita que wget cree una jerarquía de directorios en su servidor (incluso cuando está configurado solo para spider).
-`nv`, abreviatura de `--no-verbose`, impide que wget genere información adicional que no es necesaria para identificar enlaces rotos.
-`H`, abreviatura de `--span-hosts`, hace que wget rastree subdominios y dominios distintos al primario (es decir, sitios externos).
-`w 2`, abreviatura de `--wait`, indica a wget que espere 2 segundos entre solicitudes para evitar bombardear el servidor, minimizando cualquier impacto en el rendimiento.
Ah, por cierto, también existe Link Checker, que es software libre.
Ya era hora de que cerrara esto (https://notabug.org/Freak-Spot/Freak-Spot/commit/d09506372baa3df823740710459cd29f8c7e45b1). Muchas gracias @heckyel
Ah, por cierto, también existe [Link Checker](https://validator.w3.org/checklink), que es software libre.
Lo ideal sería ejecutar algo como
wget --spider -o wget.log -e robots=off -w 1 -r -p http://SITIOWEB.web
, pero haciéndolo de forma local para no sobrecargar el servidor.Me encontré con broken-link-checker-local pero depende de npm (tiene problemas de seguridad y privacidad véase Node.js removal), habrá que encontrar otro programa similar
Gracias por la sugerencia.
wget debería funcionar para hacer lo mismo en local, ¿no? Además, wget suele estar ya instalado en GNU/Linux. Yo no le he dedicado mucho tiempo, ya que el comando anterior ya me sirve y no suelo comprobar los enlaces rotos muy a menudo. O con wget2.
He revisado con detenimiento esto y al parecer ya lo tenemos resuelto :smiley: solo hace falta ejecutar
make serve
y luegowget --spider -o wget.log -e robots=off -w 1 -r -p http://localhost:8000/
Incluso podríamos escribirlo como tarea al Makefile
Ah, genial, ¿puedes mandar un pull request? Pero lo he ejecutado en local y parece que no mira si los enlaces externos están rotos, o algo va mal.
La tarea se podría llamar
broken_links
, y habría que añadir el nombre del archivo generado (enlaces_rotos.txt
o algo así) al.gitignore
.[ok] entonces el comando debería ser así
wget --spider -nd -nv -H -o wget.log -e robots=off -w 2 -r -p http://localhost:8000/
-
nd
, abreviatura de--no-directories
, evita que wget cree una jerarquía de directorios en su servidor (incluso cuando está configurado solo para spider).-
nv
, abreviatura de--no-verbose
, impide que wget genere información adicional que no es necesaria para identificar enlaces rotos.-
H
, abreviatura de--span-hosts
, hace que wget rastree subdominios y dominios distintos al primario (es decir, sitios externos).-
w 2
, abreviatura de--wait
, indica a wget que espere 2 segundos entre solicitudes para evitar bombardear el servidor, minimizando cualquier impacto en el rendimiento.Ya era hora de que cerrara esto (
d09506372b
). Muchas gracias @heckyelAh, por cierto, también existe Link Checker, que es software libre.