Hola buenos días colegí. Hoy te traigo una manera de extraer un email de una página web de forma automatizada. Para ello solo necesitas una terminal unix. Yo he hecho las pruebas en Kali Linux.
El primer paso es posicionarnos en un directorio, yo lo haré en el directorio principal del mi usuario.
Creamos una carpeta/directorio, hay que ser ordenados. En mi caso lo llamaré email-dominio.
Nos posicionamos dentro del directorio que acabamos de crear
Ahora elegimos un dominio del cual extraeremos el email si lo hay. Cabe mencionarse que este algoritmo es muy sencillo y solo afectará a la index. Así pues lo primero que deberemos hacer es descargarnos desde terminal la página html de esa url. Para el ejemplo yo utilizaré la página web de cristalbox.es
ya tendremos el archivo descargado en nuestro directorio. Ahora nos queda obtener los emails del fichero. Para ello ejecutaremos la siguiente sentencia.
Ahora nos debería aparecer por pantalla el email obtenido. Si es que existía email.
para automatizar este proceso podeís utilizar este bash script
Para hacer uso de él deberías crearnos un fichero con nano llamado como queraís, yo lo he llamado domain-to-email.sh
Así pues para llamar al script, que recibirá como parámetro el dominio, lo haremos de la siguiente manera.
Al pulsar enter se ejecutará el proceso de forma automatizada. Para generar los correos pseudomanualmente, vas metiendo el dominio y enter, dominio y enter. Los emails obtenidos estarán dentro de una carpeta llamada web-email en un fichero llamado emails.txt. Ejemplo:
Lo suyo es tener un archivo teniendo un dominio por linea que hayamos obtenido por otros medios. Es decir, tener cientos o mieles de dominios en un archivo y hacer un pipe al script. Vamos a suponer que tenemos muchos emails en un archivo llamado cientos_de_emails.txt. Para obtener los correos de forma automatizada se hará del siguiente modo
Todo esto se basa en que en muchas web el correo electrónico está visible a simple vista, usualmente en el pie, o enlazado con un 'href="mailto:'. Es decir que si está visible está en el código, con el wget nos descargamos el código de la página y filtramos con la expresión regular de un dominio todo el contenido de modo que el comando grep solo nos devolverá los dominios.
Puede parecer que esto no tiene mucha potencia, al fin y al cabo conseguiremos emails genéricos. Te doy un briconsejo, rastrea linkedin, blogs y paginas de empleo (las paginas oficiales de las autonomías que ofertan empleo suelen albergar correos más confidenciales) y versiones cacheadas de webs. Si no sabes que es Shodan, deberías investigar.
Espero que te sea de utilidad, y hasta luegooooo.
Comentarios
Publicar un comentario