martes, 23 de febrero de 2010

Blogs vecinos

Aquí hos dejamos varaias direcciones de blogs de seguirdad informática de nuestros compañeros de ciclo, son los siguientes:

http://seguridadinformticakss.blogspot.com/

http://si-mario.blogspot.com/

http://si-malaguita.blogspot.com/

http://sisecuritycrew.blogspot.com/

http://si-jesus.blogspot.com/

Esperemos que hos sirvan de ayuda.

Un saludo

lunes, 22 de febrero de 2010

Antivirus ON-LINE

Buenas, en esta entrada vamos a publicar unas páginas web que hos permitirá escanear vuestro pc para detectar los virus que puedas tener. Hay van las páginas, son todas gratuitas.


La primera página es http://filterbit.com/index.cgi, lo malo de esta página es que está en inglés, pero es muy sencilla de utilizar, no hace falta saber inglés para entenderla.














La segunda página es http://www.kaspersky.com/virusscanner/ . Esta página sirve para analizar archivos que sean sospechosos. Biene muy bien este escaneo cuando te descargas un archivo de internet. Esta página también está en inglés, pero es igual de sencilla que la otra ,y también es muy fiable.














Spyware Legal

¿Qué son los Spywares?

Los Spywares tienen cierta similitud con los virus pero a diferencia de estos los spywares no tiene código dañino para nuestros PC, por lo tanto los Anti-Virus comunes no los pueden reconocer ni eliminar.

Los spywares son pequeños programas que se instalan en nuestro sistema con la finalidad de robar nuestros datos y espiar nuestros movimientos por la red. Luego envían esa información a empresas de publicidad de internet para comercializar con nuestros datos.
Trabajan en modo 'background' (segundo plano) para que no nos percatemos de que están hasta que empiecen a aparecer los primeros síntomas.

Los 5 principales síntomas de infección son.

1. Se nos cambian solas las página de inicio, error y búsqueda del navegador.
2. Se nos abren ventanitas pop-ups por todos lados, incluso sin estar conectados y sin tener el navegador abierto, la mayoría son de temas pornográficos.
3. Barras de búsquedas de sitios como la de Alexa, Hotbar, etc.. que no podemos eliminar.
4. Botones que se aparecen la barras de herramientas del navegador y no podemos sacarlos.
5. La navegación por la red se hace cada día mas lenta.


¿Hay muchos spywares?

Resulta difícil enumerarlas todas. En esta pagina encontraréis una base de datos con más de 400 spywares distintos. Sí, sí. 400. Cuesta creerlo, ¿verdad?


Spywares legales

Hay 2 principales usuarios que utilizan spywares.

Los primeros son empresas espías que crean los spywares, segun ellos lo hacen todo legalmente, aunque seguramente no es moral para la mayoría de las personas, ya que lo que hacen es colgar junto a una descarga, poniendo en las condiciones, que se acepta el uso del spyware, pero claro esto lo suelen poner en unas condiciones muy extensas, en las que nadie se molestan en leer, por ello ellos afirman que es legal puesto que lo pusieron, pero moralmente es ilegal pues lo hacen a traición y mala leche xD.

Los segundos usuarios son padres, empresas que quieren controlar a sus empleados, que compran un spyware para tenerlos controlados a sus hijos/empleados.

Descargar spyware legal

Aqui


Espero que esta información hos sirva de ayuda ;)



Videos de seguridad

Hola bloggers hos dejamos varios videos relacionados con la seguridad informática.

Este video está relacionado con la seguridad física y vereis lo que ocurre si no teneis bien protegido vuestras instalaciones informáticas.



Este otro video está relacionado con el tráfico TCP/IP y hos explica como se transportan los paquetes a través de Internet con el protocolo TCP/IP.

lunes, 8 de febrero de 2010

Los spiders

Vamos a hablar un poco sobre los spiders, que son, como funcionan y os pasaremos los link de algunas paginas relacionadas con el tema ;)


¿Que son los spiders?

Los Spiders son robots automáticos que utilizan la mayoría de los grandes buscadores internacionales y conocidos para indexar los sitios en sus motores de búsqueda. Los mismos realizan las siguientes acciones:
  • Recorren las páginas recopilando información sobre los contenidos de estas. Cuando se busca una información en los motores, ellos consultan su base de datos y presentan resultados clasificados por su relevancia. De las webs, los buscadores pueden almacenar desde la página de entrada, a todas las páginas de la web.
  • Si consideran que una web es importante para el usuario, tienden a registrarlas todas. Si no la consideran importante, sólo almacenan una o más páginas.
  • Cada cierto tiempo, los motores revisan las webs, para actualizar los contenidos de su base de datos, lo que garantiza que los resultados de la búsqueda estén siempre actualizados.
  • Los spiders tienen una colección de programas simples y potentes con diferentes cometidos. Se suelen dividir en tres partes. Los programas que exploran la red -spiders-, los que construyen la base de datos y los que utiliza el usuario, el programa que explora la base de datos.
Algunos de los buscadores que utilizan Spiders: Google, MSN Search, AltaVista, Hotbot.


El funcionamiento


Los spiders son robots dedicados a indexar páginas. El webmaster sólo tiene que dar de alta su URL principal, por ejemplo “http://www.lukor.com” y el robot, una vez llegado a esta página, se dedicará a seguir todos los links que encuentre en esa página dentro del dominio (http://www.lukor.com/novedades.htm, http://www.lukor.com/cine/index.htm, etc.). Los spiders se limitan a leer el código HTML y no descargan los gráficos, las animaciones o los scripts. Para hacerse una idea de qué es lo que ve un spider en nuestras páginas, tendremos que desactivar en las opciones de nuestro navegador las que permiten ver gráficos y animaciones y marcar la opción de navegar sin conexión a la red. También podemos usar un navegador de “sólo texto” como Lynx que usa los protocolos más antiguos (sin flash, javascript, etc.) para ver a qué se quedan reducidas nuestras páginas. El primer paso para entrar en estos buscadores suele darlo el webmaster cuando lo da de alta, pero a veces ni es necesario porque el spider llega a esa web siguiendo enlaces desde otras páginas.

Para tener éxito con estos buscadores hay que tener en cuenta cómo entregan los resultados al usuario. Supongamos que un visitante del buscador introduce las palabras de búsqueda “tarifas de billetes de avión para París”. En este caso el buscador puede realizar todas estas operaciones:
- descartar de la búsqueda las palabras “de” y “para” que no tienen contenido sustantivo
- buscar las palabras concretas (“billetes”) o buscar aproximaciones de todo tipo (“billets”, “bille*”, “billetería”)
- buscar en cada una de las partes del documento HTML: título, keywords, descripción, body, campos ALT de las imágenes, etc. - determinar la existencia de todas las palabras clave o empezar entregando resultados coincidentes con la primera palabra, luego con la segunda, etc.
- entregar los resultados ordenados según el número de veces que se repitan todas y cada una de las palabras de la búsqueda en el documento, es decir, en primer lugar aparece la página que tiene más veces “tarifas”, “billetes”, “avión” y “París”.
- entregar los resultados según el número de documentos HTML que existen una URL y que contienen las palabras clave. Por ejemplo, entregar en primera posición una web que tenga 150 páginas con tarifas para distintos destinos que una web que sólo tiene un documento HTML con una larguísima lista con las tarifas de todos los destinos.
- entregar los resultados según la densidad relativa de las palabras clave en el documento (éste es un concepto un poco más complejo), es decir, entrego en primer lugar los documentos que contienen más texto, siempre que dentro de ese documento estén las palabras de la búsqueda de manera que el usuario tenga la mayor información en los resultados ofrecidos. Este concepto se traduce en que el buscador entregará antes una página de 3.000 palabras en la que aparezcan dos veces “tarifas”, “billetes”, “avión” y “París” que una página de cinco líneas en cada una de las cuales están repetidas las palabras “tarifas”, “billetes”, “avión” y “París” cinco veces cada una. - a igualdad de resultados, entregar primero el resultado de la página con más “peso”. El método para determinar el peso de una página varía de un buscador a otro pero uno muy común es determinar el “peso” de la página según la cantidad de links que recibe de otras páginas. Así, la web de Iberia, hacia la que apuntan miles de links que informan sobre viajes o sobre transportes de todo tipo, aparecerá antes que la de “Viajes El mochilero morrocotúo”, que no la conoce nadie y con la que apenas enlazan páginas.

¿Y todo esto lo piensan los buscadores? Pues sí, cada uno de una manera y siguiendo sus propias reglas y criterios. Yo tampoco sé cómo se las arreglan para manejar cientos de millones de páginas y devolver el resultado en 65 centésimas de segundo pero el caso es que lo hacen. Si quieres probar, entra en Google y busca “tarifas de billetes de avión para París” y después busca “paris avión tarifas billetes” y comprobarás que algunos de los resultados cambian de posición o aparecen webs nuevas y desaparecen otras.

También hay que tener en cuenta que la presión económica sobre los propietarios de los buscadores ha hecho que algunos de ellos acepten adulterar los resultados de sus búsquedas colocando en primer lugar a aquéllos que, sin corresponder con lo solicitado por el usuario, han decidido patrocinar su web a base de vil metal. El ejemplo más claro de esto ha sido el de Altavista (http://www.altavista.com) que no sólo llega a entregar resultados evidentemente irreales sino que a veces llega al puro surrealismo cuando ofrece en primer lugar consumibles de oficina al realizar una búsqueda sobre “lesbianas porno hardcore”.

El mejor ejemplo de spider puro es Google (http://www.google.com. Basta con introducir la URL de una página web y su robot indexará todas las páginas de esa web cada mes y medio aproximadamente. Según ellos, hasta la fecha tienen indexados en su enorme base de datos más de 1.600.000.000 documentos HTML. Su importancia aumenta día a día no sólo porque lo usan cada vez más usuarios sino porque provee de resultados de búsqueda a cada vez más portales y directorios, entre los que se encuentran el imprescindible Yahoo y portales españoles como Ozú o El Mundo.