download varios files desde sourceforge

¿Hay alguna forma de download / duplicar una estructura de carpetas con muchos files de sourceforge usando la herramienta wget / curl / similar?

He visto algunos ejemplos usando rsync o scp, pero creo que eso solo funciona para los propietarios de proyectos SF (porque necesita inicio de session, contraseña y ruta del sistema de files).

Solutions Collecting From Web of "download varios files desde sourceforge"

Sí, puedes hacerlo con wget .

Si estás usando HTTP

wget --no-check-certificate -e robots=off --user=user --password='pswd' -r URL 

Si usas FTP:

 wget -r ftp://username:password@ftp.your_domain.com/ 

Usualmente uso httrack para download / duplicar contenido web de un sitio.

 $ httrack http://2011.example.com -K -w -O . -%v --robots=0 -c1 %e0 

Después de ejecutarse, se queda con una estructura de directory local y navegable. Por ejemplo:

 $ ls -l total 304 -rw-r--r-- 1 saml saml 4243 Aug 17 10:20 backblue.gif -rw-r--r-- 1 saml saml 828 Aug 17 10:20 fade.gif drwx------ 3 saml saml 4096 Aug 17 10:20 hts-cache -rw-rw-r-- 1 saml saml 233 Aug 17 10:20 hts-in_progress.lock -rw-rw-r-- 1 saml saml 1517 Aug 17 10:20 hts-log.txt -rw------- 1 saml saml 271920 Aug 17 10:22 hts-nohup.out -rw-r--r-- 1 saml saml 5141 Aug 17 10:20 index.html drwxr-xr-x 10 saml saml 4096 Aug 17 10:21 2011.example.com 

A medida que se descarga, verá el siguiente tipo de salida:

 Bytes saved: 21,89KiB Links scanned: 12/45 (+4) Time: 2s Files written: 4 Transfer rate: 2,65KiB/s (2,65KiB/s) Files updated: 1 Active connections: 1 Errors: 7 Current job: parsing HTML file (57%) request - 2011.example.com/cgi-bin/hostnames.pl 0B / 8,00KiB 

Puede ser retrocedido y / o abortado y luego reasumido. Esta es solo la punta del iceberg en términos de sus características. También hay una GUI para configurar una descarga y supervisarla a medida que avanza.

Existe una amplia documentation en el httrack web de httrack y en google.