localmark

localmark
Login

localmark

localmark

Los bookmarks del navegador, no permiten consultar sobre el contenido del sitio web.

Este proyecto permite descargar localmente sitios web, indexarlos y realizar busquedas, al estar empaquetados en sqlite se pueden copiar facilmente.

Requisitos

Opcional (para Clonacion de codigo fuente)

Opcional (para mas funcionalidades)

Uso

hub.docker.com

$ docker run --rm -ti -p 5000:5000 -v <DIRECTORY LOCALMARKS>:/localmark_storage bit4bit/localmark

y abrir en un navegador http://localhost:5000

como servidor en docker

$  docker run -d --restart=always -ti -p 5000:5000 -v <DIRECTORY LOCALMAKRS>:/localmark_storage --name localmark 
bit4bit/localmark

A mano

Mientras se publica en CPAN, para hacer uso se debe:

clonar repositorio e instalar dependencias

$ fossil clone https://chiselapp.com/user/bit4bit/repository/localmark
$ cd localmark
$ cpanm --installdeps .

adicionar dependencias para lectura desde home, adicionar a .bashrc

eval "$(perl -I$HOME/perl5/lib/perl5 -Mlocal::lib)"

configurar

crear el archivo prod.env en la carpeta raiz con:

$ echo 'STORAGE_DIRECTORY=/home/<mi usuario>/localmark' > prod.env

STORAGE_DIRECTORY es el directorio donde se almacenan los paquetes de sitios.

iniciar servicio web desarrollo

en el director raiz ejecutar:

$ DANCER_PORT=5000 perl -I/home/<MIHOME>/perl5/lib/perl5 -I./lib script/localmark.pl

ingresar con el navegador a http://localhost:5000

iniciar servicio web multiproceso

el servidor de desarrollo es de un solo hilo lo cual no permitee interactuar con el sitio mientras se descarga. Se puede iniciar un servidor multihilo.

$ cpanm install Starman
$ /home/<MIHOME>/perl5/bin/starman --port 5000 -I./lib script/localmark.pl

Contribuir

no descarga el X sitio correctamente usando (Downward Website)

actualmente se usa wget para obtener los sitios, de la siguiente manera para sitios web:

$ wget --no-check-certificate -P <WEBSITE_DIR> --no-parent -nH -E -k -r -l 2 -p <URL>

puedes correr el comando manualmente y verificar a que se debe el problema, una vez identificada la solucion, publicarla

no descarga el X sitio correctamente usando (Upward Website)

actualmente se usa wget para obtener los sitios, de la siguiente manera para sitios web:

$ wget --no-check-certificate -P <WEBSITE_DIR> -nH -E -k -r -l 2 -p <URL>

puedes correr el comando manualmente y verificar a que se debe el problema, una vez identificada la solucion, publicarla

no descarga el X sitio correctamente usando (Single page)

actualmente se usa wget para obtener los sitios, de la siguiente manera para sitios web:

$ wget --no-check-certificate -P <WEBSITE_DIR> -nH -E -k -p <URL>

puedes correr el comando manualmente y verificar a que se debe el problema, una vez identificada la solucion, publicarla