Mostrar Mensajes

Esta sección te permite ver todos los posts escritos por este usuario. Ten en cuenta que sólo puedes ver los posts escritos en zonas a las que tienes acceso en este momento.

Mensajes - Mr. Foster

Páginas: [1] 2 3 ... 7
1
Wargames y retos / Re:[Desafio online] Challenge Katz
« en: Mayo 07, 2014, 01:55:27 am »
Creo que llegué tarde  :-[, que onda la página sigue o no?, no me pasa de door.html  :-\

2
Dudas y pedidos generales / Re:Duda sobre php-mysql
« en: Enero 17, 2014, 01:04:39 am »

3
Off Topic / Re:Feliz cumpleaños ZanGetsu!
« en: Noviembre 25, 2013, 03:58:16 pm »
Un saludo y feliz cumpleaños de mi parte tambien, por los aportes y demases  ;D

4
Wargames y retos / Re:[RETO] Wargame Cifrado - Nivel facil/medio
« en: Noviembre 12, 2013, 05:04:27 pm »
Citar
Felicitaciones! Solo falta que accedas al panel de control :P

UPS  ::)

Citar
La idea de este wargame es conseguir un código de acceso que está en el panel de control del sitio. Postear una captura, ocultando el codigo, y mandarme un mp mostrando como lo hicieron.

Pero en ninguna parte dice que hay que loguearse en el adminpanel, creo que el correo que te escribi denante no te llego  ???

5
Wargames y retos / Re:[RETO] Wargame Cifrado - Nivel facil/medio
« en: Noviembre 12, 2013, 11:54:09 am »
Entretenido  ;D


Con las etiquetas img no se ve la imagen, por eso coloco el link  ::)
http://prntscr.com/23nmk9

6
Dudas y pedidos generales / Re:¿Peliculas de informatica?
« en: Octubre 14, 2013, 10:42:27 am »
Las ultimas dos que vi, tipo documental fueron TPB away from the keyboard, y We steal secrets, la primera que trata sobre la web The Pirate Bay y sus creadores, y al segunda sobre Julian Assange y la Wikileaks, muy buenas las recomiendo  :D (ojala no sea tarde para dar la recomendacion).

7
Manuales y libros / Re:[email protected] en Internet
« en: Octubre 08, 2013, 11:55:33 am »
No me anduvo el link de DepositFiles asi que dejo el link de MEGA. Saludos

https://mega.co.nz/#!rxgWSJBJ!Ac5tqGlZHgPaig92eH6tYFC7ar0enJk8y0OTECwheQg

8
Seguridad Wireless / Re:Xiaopan S.O
« en: Octubre 03, 2013, 09:28:47 pm »
Buen sistema, liviano, simple, expedito y solo un poco tardio pero excelente.

9
Hacking / Re:Underc0de Spy 1.1 LIBERADO AL FIN!!!!
« en: Septiembre 26, 2013, 01:03:04 pm »
Felicitacioneeees y agradecimientos  ;D

10
Zona Webmaster / [SEO] Sobre robots.txt
« en: Septiembre 20, 2013, 01:48:27 am »
Bueno en lo que estaba ultimamente lei un articulo y encontre que podria ser de gran ayuda compartirlo, o acerco al foro.

Cómo bloquear o eliminar páginas con un archivo robots.txt:

Los archivos robots.txt restringen el acceso a un sitio por parte de los robots de motores de búsqueda que rastrean la Web. Estos robots están automatizados y, antes de acceder a las páginas de un sitio, verifican si existe un archivo robots.txt que les impida el acceso a determinadas páginas. Aunque todos los robots acreditados respetan las directivas del archivo robots.txt, algunos pueden interpretarlas de forma diferente. Sin embargo, el archivo robots.txt no es obligatorio y algunos emisores de spam y otros malhechores pueden ignorarlo. Por este motivo, es recomendable proteger la información confidencial con contraseñas.

Para consultar las URL que Google no ha podido rastrear, accede a la página URL bloqueadas de la sección de Rastreo de Herramientas para webmasters de Google.

El archivo robots.txt solo es necesario si tu sitio incluye contenido que no deseas que los motores de búsqueda indexen. Si va a permitir la indexación de su sitio por completo, el archivo robots.txt no es necesario (ni siquiera uno vacío).

Si bien Google no rastreará ni indexará el contenido de las páginas bloqueadas por robots.txt, sí que indexará las URL que encuentre en otras páginas de la Web. Como consecuencia, la URL de la página y otros datos disponibles públicamente, como el texto de anclaje en enlaces que dirigen al sitio o el título de Open Directory Project (www.dmoz.org), podrían aparecer en los resultados de búsqueda de Google.

Para usar un archivo robots.txt, necesitarás tener acceso al directorio raíz de tu dominio (si no estás seguro, consúltalo con tu proveedor de alojamiento web). Si no tienes acceso al directorio raíz de un dominio, puedes restringir el acceso al mismo utilizando la metaetiqueta "robots".

*Para impedir que aparezca cualquier contenido de una página en el índice de páginas web de Google, incluso si está vinculado a otros sitios, se puede utilizar una metaetiqueta "noindex" o una etiqueta x-robots-tag. Siempre que Googlebot rastree la página, verá la metaetiqueta "noindex" y no incluirá esa página en el índice de páginas web. La cabecera HTTP "X-Robots-Tag" resulta especialmente útil para limitar la indexación de archivos que no sean HTML, como archivos gráficos y otro tipo de documentos.



Como crear un archivo robots.txt:


El archivo robots.txt más simple utiliza dos reglas:

    User-Agent: el robot al que se aplica la siguiente regla
    Disallow: la URL que quieres bloquear

Estas líneas se consideran una única entrada en el archivo. Puedes incluir todas las entradas que quieras, así como varias líneas Disallow y varios user-agents en una misma entrada.

Cada sección del archivo robots.txt es independiente y no se genera a partir de secciones anteriores. Por ejemplo:

Código: (text) [Seleccionar]
User-agent: *

Disallow: /carpeta1/

User-Agent: Googlebot

Disallow: /carpeta2/

En este ejemplo, las únicas URL que no puede rastrear el robot de Google son las de /carpeta2/.

User-agents y robots

Un user-agent es un robot específico del motor de búsqueda. La base de datos de robots web incluye muchos robots comunes. Puedes configurar una entrada para que se aplique a un robot específico (mediante su nombre) o para que se aplique a todos los robots (mediante un asterisco). El aspecto de una entrada que se aplica a todos los robots es el siguiente:

Código: (text) [Seleccionar]
User-agent: *
Google utiliza varios robots diferentes (user-agents). El robot que utilizamos para nuestra búsqueda web es Googlebot. El resto de nuestros robots, como Googlebot-Mobile y Googlebot-Image, siguen las reglas configuradas para Googlebot, aunque también pueden definirse reglas específicas para ellos.
Bloqueo de user-agents

La línea Disallow indica las páginas que quieres bloquear. Puedes insertar una URL específica o un patrón. La entrada debe comenzar con una barra inclinada (/).

    Para bloquear todo el sitio, utilice una barra inclinada.

Código: (text) [Seleccionar]
Disallow: /
    Para bloquear un directorio y todo lo que contiene, inserta una barra inclinada después del nombre del mismo.

   
Código: (text) [Seleccionar]
Disallow: /directorio-sintítulo/
    Para bloquear una página, insértala después de la línea Disallow.

   
Código: (text) [Seleccionar]
Disallow: /archivo_privado.html
    Para eliminar una imagen de Google Imágenes, añada lo siguiente:

Código: (text) [Seleccionar]
User-agent: Googlebot-Image

    Disallow: /imagenes/perros.jpg
    Para eliminar todas las imágenes de su sitio de Google Imágenes, añada lo siguiente:

   
Código: (text) [Seleccionar]
User-agent: Googlebot-Image

    Disallow: /

    Para bloquear archivos de un determinado tipo (por ejemplo, .gif), añade lo siguiente:

   
Código: (text) [Seleccionar]
User-agent: Googlebot
    Disallow: /*.gif$
    Para evitar que se rastreen las páginas de su sitio, sin impedir que se muestren anuncios de AdSense en esas páginas, inhabilite el acceso de todos los robots que no sean de Mediapartners-Google. Esta opción impide que las páginas aparezcan en los resultados de búsqueda, pero permite que el robot Googlebot-Mediapartners las analice para determinar los anuncios que se publicarán. El robot Googlebot-MediaPartners no comparte páginas con otros user-agents de Google. Por ejemplo:

   
Código: (text) [Seleccionar]
User-agent: *
    Disallow: /

    User-agent: Mediapartners-Google

    Allow: /
Ten en cuenta que en las directivas se distingue entre mayúsculas y minúsculas. Por ejemplo, DIsallow: /archivo_basura.asp bloquearía http://www.example.com/archivo_basura.asp, pero permitiría http://www.example.com/Archivo_basura.asp. El robot de Google ignorará los espacios en blanco (en particular, las líneas vacías) y las directivas desconocidas en robots.txt.

El robot de Google permite enviar archivos de sitemaps mediante el archivo robots.txt.
Concordancia mediante patrones

Googlebot respeta algunas concordancias mediante patrones, aunque no todos los motores de búsqueda lo hacen.

    Puedes utilizar un asterisco (*) para que la concordancia se establezca con una secuencia de caracteres. Por ejemplo, para bloquear el acceso a todos los subdirectorios que empiecen por "privado":

 
Código: (text) [Seleccionar]
  User-agent: Googlebot
    Disallow: /privado*/
    Para bloquear el acceso a todas las URL que incluyan un signo de interrogación (?) (más concretamente, cualquier URL que empiece por el nombre de tu dominio, seguido de una cadena, un signo de interrogación y una cadena), añade lo siguiente:

   
Código: (text) [Seleccionar]
User-agent: Googlebot
    Disallow: /*?

    Para especificar la concordancia con el final de la URL, utilice $. Por ejemplo, para bloquear una URL que termine en .xls:

   
Código: (text) [Seleccionar]
User-agent: Googlebot
    Disallow: /*.xls$

    Puede utilizar esta concordancia mediante patrones en combinación con la directiva Allow. Por ejemplo, si el signo ? indica el ID de una sesión, puedes excluir todas las URL que lo contengan para asegurarte de que Googlebot no rastree páginas duplicadas. Sin embargo, las URL que finalizan con dicho símbolo podrían ser la versión de la página que quieres incluir. En ese caso, configure su archivo robots.txt del siguiente modo:

   
Código: (text) [Seleccionar]
User-agent: *
    Allow: /*?$
    Disallow: /*?

    La directiva Disallow: / *? bloqueará cualquier URL que incluya el símbolo ?. Concretamente, bloqueará todas las URL que comiencen por el nombre de tu dominio, seguido de cualquier cadena, un signo de interrogación y cualquier cadena.

    La directiva Allow: /*?$ permitirá cualquier URL que finalice con el símbolo ?. Concretamente, admitirá cualquier URL que comience por el nombre de tu dominio, seguido de cualquier cadena y el símbolo ?, sin caracteres después de este último.

Guarda tu archivo robots.txt descargándolo o copiando el contenido en un archivo de texto y guardándolo como robots.txt. Guarda el archivo en el directorio de nivel superior de tu sitio. El archivo robots.txt debe ubicarse en la raíz del dominio y denominarse "robots.txt". Si se ubica en subdirectorios, no será válido, ya que los robots solo lo buscan en la raíz del dominio. Por ejemplo, http://www.example.com/robots.txt es una ubicación válida, pero http://www.example.com/misitio/robots.txt no lo es.

El articulo en si fue extraido de supportgoogle, en forma de compartir y acercar conocimiento.

11
Dudas y pedidos generales / Re:¿el programa mediaget es confiable?
« en: Septiembre 20, 2013, 01:41:35 am »
Viejo para que ocupar un programa como eso cuando puedes ocupar Utorrent o cualquier otro con ThePirateBay o Kat.ph, saludos compadre, pasese al torrent. ;D

12
Dudas y pedidos generales / Re:[Ayuda]Insertar datos indexeddb HTML5
« en: Agosto 22, 2013, 01:07:04 pm »
Ohh compadre, gracias por el aporte y la ayudita, le hechare el vistazo a ver si logro responder mis dudas, si no seguire el hilo. Gracias  ;D

13
Dudas y pedidos generales / [SOLUCIONADO] Insertar datos IndexedDB HTML5
« en: Agosto 22, 2013, 12:11:29 pm »
Buenos dias, he estado siguiendo pasos de un gran libro compartido anteriormente y he quedado "pegado" en el tema de las indexeddb en HTML5, alguien que sepa que pueda hacer un mini-tutorial apartado, le agradeceria solo tocar el tema de indexeddb, ya que no encuentro como insertar los datos y asi poder manipulandolos, no se que estare haciendo mal porque hasta el momento habia estado siguiendo al pie de la letra todo lo del tutorial  :-[.

Les estaria agradecido por compartir un poco de conocimiento :c.

14
Bugs y Exploits / Re:Métodos para bypassear un WAF en Inyección SQLi
« en: Agosto 05, 2013, 01:24:32 pm »
Muchas gracias a todos, intentare con lo que me han proporcionado, si no funciona sigo el hilo y les comento. Gracias a todos

15
Excelente post, yo nunca he hechos pedidos asi, pero esta referencia me viene muy bien. Genial

16
Bugs y Exploits / Re:Métodos para bypassear un WAF en Inyección SQLi
« en: Julio 31, 2013, 12:13:47 pm »
Tengo una consulta, y si despues de haber bypasseado para que me diera el numero de las tablas, como sigo si añadiendo el famoso "+from+information_schema.tables--" si me lo bloquea y me vuelve a tirar la pagina de error  :o

17
Hacking / Re:Sql Injection manualmente (Matabarras-Morenako)
« en: Julio 31, 2013, 11:29:39 am »
Porque morenako?

18
Pentesting / Re:Clases Inyeccion SQL Por Omar Palomino (SQLI)
« en: Julio 31, 2013, 10:35:44 am »
Tendre que bajarlos y hecharles una revisada, estoy muy oxidado en SQLi  :o
Vale que buen aporte, y vamos a ver si este hombre sigue compartiendo conocimiento  ;D

19
Que paso con el reto?, cuanto somos ya?, vamos animense  ::)

20
Hardware / Re:Reparando HDD(Hard Disk Drive o "Disco Duro") dañado
« en: Julio 22, 2013, 01:59:19 pm »
Es muy util ya que he probado varios metodos para poder arreglar un disco duro que tengo, en mi pega tengo que trabajar con discos duros y algunos se hechan a perder misteriosamente (WDC para ser mas exacto), ya que habia visto de un lugar en donde compran discos duros a $3.000 pesos (6 dolares aprox.) siempre me preguntaba para que los querian o como los arreglaban, he aqui la solucion. Buen aporte hermano

Páginas: [1] 2 3 ... 7