martes, 31 de julio de 2012

Stallman tiene sus dudas respecto de la llegada de Steam a Linux

     El fundador del proyecto GNU y de la Free Software Foundation, Richard Stallman, se ha pronunciado respecto del anuncio de Valve de lanzar Steam para Linux. Para Stallman la incursión del software propietario en el mundo del código abierto tiene ventajas y también inconvenientes.

     Steam aterrizará en Linux este año y esto es un hito importante para el sistema operativo. Valve puede haber marcado el inicio de un camino de convergencia hacia el mundo GNU/Linux para otros fabricantes de juegos, y de software en general. El impacto de la llegada a la plataforma libre de programas que de código cerrado, es el motivo de la reflexión de Stallman.

     Por un lado, Stallman aprecia un beneficio evidente, como es el hecho de atraer hacia el mundo GNU/Linux a muchos usuarios que podrían sentirse cómodos con un sistema operativo que no emplean, abandonando Windows, uno de sus “demonios”.

     Por otro ve un peligro, al mostrar a los usuarios como natural un camino que va en contra del ideario GNU. Si bien el balance conjunto entre beneficios y daños es positivo para Stallman, sus reticencias ante la mezcla de software propietario con código libre son evidentes: se pierde el espíritu de libertad que ampara la propuesta GNU.

     Entiendo las razones de Stallman aunque no las comparto completamente. Su idea de libertad a la hora de emplear software debería contemplar, en mi opinión, la posibilidad de instalar libremente programas propietarios. La libertad del software no puede entenderse sin contemplar el libre albedrío de los usuarios, que deberían poder instalar a su criterio lo que tengan a bien utilizar en sus máquinas.

     También entiendo sus reticencias respecto de la, entre comillas, corrupción que pueda representar para las distribuciones GNU/Linux la inclusión de software comercial privativo. El equilibrio es difícil y los extremos siempre delicados. Stallman defiende su causa con honestidad intelectual y coherencia con sus credos. En este sentido nada que objetar.

     Supongo que siempre habrá distribuciones “puras”, como Debian, y otras con un enfoque mixto como Ubuntu. Como usuario quiero pensar en la posibilidad de emplear distribuciones de código abierto y utilizar software que satisfaga mis necesidades al margen del blindaje o apertura de sus fuentes.

Fuente: genbeta.com

martes, 24 de julio de 2012

Deep Web: El lado invisible de la red

     ¿Alguna vez pensaste por qué navegamos la web y no la, por ejemplo, buceamos? La respuesta es más sencilla de lo que te imaginas, pero también es una respuesta que está oculta a la mayoría de los pobladores efímeros de la Internet superficial. La Deep Web o la Red Profunda, es toda aquella información en sitios web y otros formatos que no está indexada por los motores de búsquedas convencionales y en ella se esconde el 80% del contenido real de internet, donde habita información clasificada, páginas olvidadas y hasta actividades delictivas. Entra y síguenos con cautela en un viaje al lado invisible de la red.

      Un misterio en las profundidades.

      Aumentemos el suspenso. Como sabes  y experimentas, la mayoría de los internautas tienen necesidades que resuelven en la red a la manera de investigación, comunicación, consumo y entretenimiento. Es así que la búsqueda de información en general, el correo, la compraventa de productos y el acceso a cualquier tipo de entretenimiento se constituyen como los motivadores principales del acceso a internet y, en consecuencia, del trabajo de los motores de búsqueda ofrecen millones de resultados inmediatos y, en general, muy útiles. Pero, los resultados que se consiguen, ¿son todos los que existen? Y además, ¿son los de mayor calidad?
     La respuesta es un rotundo NO. Esto es así porque lo que vemos de internet gracias a los motores de búsquedas es apenas el azulino tono de la superficie de un océano profundo del que sólo vemos algunos metros hacia dentro. Un porcentaje irrisorio que esconde más de lo que muestra.

      Deep Web o Invisible Web: El origen del concepto.

      La Deep Web (Red profunda), antes (1994) denominada Invisible Web (no hace falta traducción), ha sido bautizada de esta manera en 2001 debido a que no es accesible directamente a través del uso del principal medio de navegación superficial en estos tiempos: los motores de búsquedas tradicionales o estándar. El motivo de esto se divide generalmente en tres factores. El primero es el técnico o involuntario, y es debido a una falta de actualización a nuevos estándares en cuanto a indexación o por el carácter dinámico de un sitio web (cambian de contenido constantemente, se renuevan a través de interacción del visitante, etc.) El segundo caso es el de los sitios privados y protegidos o aquellos que contienen documentos en formatos  que no pueden ser indexados. En estos dos casos, el motor de búsqueda no encontrará en el código que leen sus robots un contenido asociable al cuál hacer referencia estática o directamente no podrá acceder a las bases de datos protegidas (bibliotecas, diccionarios, etc.), con lo que “pasará de largo” ante ese sitio. El otro caso es el de la decisión deliberada, pues el mismo desarrollador puede indicarle al motor de búsqueda que no revise periódicamente su código en busca de cambios a través de una variable como Follow / No Follow en el caso de Google. Si elige No Follow, los robots ignorarán el sitio y éste se mantendrá escondido, invisible, en la profundidad a la que muy pocos tendrán acceso.

      ¿Qué hay en la Deep Web?.

      Una vez definidas la Surface Web y la Deep Web (ordinariamente resumibles como indexadas y no indexadas), surge la pregunta sobre qué es lo que hay en todo esto que no vemos. ¿Qué nos estamos perdiendo? Para comprender lo que queda en el fondo, lo mejor es imaginarnos que sólo en el 2001 (donde los sitios personales como blogs y similares no habían explotado del todo) la información que se podía encontrar en la Deep Web era 500 veces mayor que en la superficial, teniendo la primera unos 91.000 Terabytes contra 197. Extrapolando los números de una manera más artesanal (no hay datos actuales al respecto, mismo por las propiedades de la Web Profunda), el crecimiento ha sido sin lugar a dudas inmenso, aunque hay que reconocer que en 10 años los sistemas de rastreo y la educación al respecto evolucionaron mucho y gigas y gigas de información de la Red profunda ahora son visibles.
      En cuanto a contenido, la Deep Web está compuesta por todo tipo de información, que al ser tanta y tan variada, la categorización se vuelve obligatoria. Es así que entre lo que no se ve en la superficial, tendremos archivos que no tengan formatos del tipo HTML o de texto (principal fracaso de los sitios web completos en Flash) y también algunos documentos multimedia que no se indexan. Como mencionamos antes, el contenido dinámico será abundante, así como los sitios privados o personales. También se accederá a la llamada web contextual que varía según quién o desde donde se la visite y no hay que olvidar el contenido limitado a través de técnicas, etc.


      ¿Qué significa todo esto en términos de información disponible?.

      Significa que podrás encontrar la puerta a base de datos (concepto importante en la Deep Web) con directorios gigantescos de información sobre meteorología, astronomía o cualquiera de las principales áreas en las que los gobiernos mantengan investigaciones constantes hasta bibliotecas de millones de tomos, diccionarios, sitios de noticias anónimos, datos financieros, hemerotecas, sitios de personas y empresas, publicaciones digitales de libros, y una fauna de copias de leyes, álbumes de fotografía histórica, directorios con información de personas y sus correos electrónicos o números telefónicos, informes como los de Wikileaks, foros de agrupaciones anónimas, comentarios de redes sociales, marcadores sociales, discusiones en foros, entre tantos otros contenidos que te estés imaginando.

      El lado oscuro de la Deep Web.

      Luego de leer lo anterior seguramente has quedado pensando en que faltaba lo tal vez más impactante de todo lo que queda afuera de los buscadores, y en este aspecto la ilegalidad y lo prohibido toman un papel preponderante en las intenciones del aprovechamiento de la Deep Web. Es así como en la misma podrás llegar a encontrar sitios donde se comercian drogas, armas y hasta servicios delictivos. Asimismo hay lugar para el intercambio de pedofilia y cualquier otro tipo de actividad ilegal de las que tendrás que mantenerte muy atento, pues además de contribuir pasivamente a que estas prácticas horrorosas se sigan nutriendo de público, también estarás expuesto a todo tipo de amenazas cibernéticas. Sin descontar la infiltración e investigación constante de organismos de seguridad en estos sitios. Pero no todo es negativo, pues paralelamente a los aspectos más reprobables que puede tener el Hacking en general (como se podrá apreciar en sitios donde se ofrecen servicios para destruir servidores, hackear cuentas, crear virus en comunidad, etc.), también se comparten conocimientos sobre sistemas, seguridad y mucho más que sin dudas es muy interesante y no genera consecuencias para el usuario promedio.

      ¿Cómo se accede a la Deep Web?.

      Aquí es donde normalmente surge una confusión, pues la Deep Web no refiere directamente a lo que se conocer como la Darknet o Dark web, pues como hemos visto, sólo una parte de su populoso contenido refiere a sitios donde es necesario ingresar de manera anónima. O mejor dicho, conviene ingresar de manera anónima. Por ello, para tener acceso a la parte más inocente, más informativa y más poblada de la Deep Web, debes utilizar motores de búsqueda especializados o temáticos, además de recorrer las ofertas de buscadores de base de datos como CompletePlanet, por ejemplo. Además de esto, y como muchos buscadores estándares han comenzado a indizar este tipo de sitios, una búsqueda del tipo “astronomical discoveries database” (recuerda que el 90% de los datos fuertes en internet están en inglés) podría enviarte directo a millones de oportunidades.

      Acceder anónimamente a la  Deep Web.

      Si tu intención mientras navegas la web profunda o invisible es evitar los sistemas de análisis de tráfico y bucear con total anonimato en las profundidades de lo claro y lo obscuro (obligatorio encender un proxy), entonces te podemos recomendar (como primer acercamiento para el usuario sin experiencia) Tor.
      Tor es una aplicación y también una red abierta que sirve como una herramienta (no infalible) para proteger tu privacidad en internet a través del anonimato. Sirve tanto para navegar como para usar mensajeros instantáneos y está abierto a todos los sistemas operativos. El proceso de conexión entre clientes o entre cliente y servidor a través de Tor se hace con encriptación y por diferentes y aleatorios canales (Onion Routing) para evitar el seguimiento de las identidades por parte del análisis de tráfico en redes públicas.
      Ventajas y desventajas de la Deep Web

      Cuando se ingresa a buscar información a la Deep Web las ventajas son las que toman el podio, pues se ha demostrado que al abrir el abanico de opciones de elección, las tasas de calidad aumentan considerablemente. Dadas las condiciones de la red y teniendo en cuenta que los motores de búsqueda no son necesariamente calificadores de calidad de información, es más factible encontrar artículos de calidad dentro de una base de datos de 100.000 que en una de 1.000. Por lo que las investigaciones sobre diversos temas, conseguirán mejores resultados –y más originales- con una búsqueda en esta parte de la web. Por otra parte es posible señalar el anonimato, la privacidad, y las oportunidades que esto puede dar antes situaciones de opresión y coartación de la libertad de expresión.
      Las desventajas podrían estar protagonizadas por la dificultad del acceso a la web invisible por parte de los usuarios más legos, pues la abundancia de información y de procesos que hay que hacer para acceder a ella podría resultar abrumadora e incómoda (actualmente la cantidad de datos en la Deep Web, superan a toda la información impresa en el mundo entero). Además hay que contar el grado de peligrosidad que tiene esta parte de la web que no está controlada a nivel estándares por los propios navegadores ni por organizaciones de seguridad informática.


      Internet tiene un fondo prolífico, donde la información queda anclada en lo hondo esperando que se la descubra. Tanto en lo legal como en lo ilegal, Internet tiene un sótano gigante que debe ser experimentado, por eso en un próximo artículo te enseñaremos más específicamente cómo usar Tor y descubriremos otros sistemas de navegación anónima. Por último, una recomendación personal en cuanto a lo que puedas encontrarte en la Deep Web y en sus zonas menos iluminadas: Disfruta, pero con cuidado; las profundidades, como en cualquier aspecto de la vida, no son para cualquiera.

Fuente: neoteo.com

lunes, 23 de julio de 2012

Los valores del software libre van más allá de la tecnología

     “Además del coste económico por no ser necesario pagar licencias, los beneficios de utilizar software libre son muchos más: la ética y la filosofía del trabajo en equipo y la creación del conocimiento compartido, son valores que transcienden al software y a la tecnología y que podemos extrapolar a cualquier ámbito de la sociedad”, sostiene Estibaliz Cáceres, educadora en nuevas tecnologías de Saregune, un centro de inserción laboral del Casco Medieval de Vitoria, en Álava.

     La entidad vitoriana potencia el uso libre y gratuito en la formación de accesos a las nuevas tecnologías a los ciudadanos en tres vertientes: de forma individual, muestra las posibilidades de la red para encontrar empleo, alfabetización digital, ofimática y blogs; como herramienta para los colectivos y asociaciones vecinales, impulsa el trabajo colectivo o la difusión de los eventos que se organicen; y en el barrio, como instrumento para mejorar su imagen social o intercambiar conocimientos.
     El 17 de mayo pasado, Saregune recibió en el Senado de Madrid, con motivo de la celebración del Día Mundial de las Telecomunicaciones y la Sociedad de la Información, el premio Internet 2012 a la mejor iniciativa sin ánimo de lucro, galardón impulsado por las Asociaciones de Usuarios de Internet e Internautas de la Comunidad Iberoamericana de Naciones, tras competir con 700 proyectos de España y Latinoamérica.
     “Para nosotras, recibir el premio ha sido el reconocimiento al trabajo de muchas personas durante más de ocho años. Y no solo eso, Saregune llevó el Casco Viejo de Vitoria-Gasteiz y el Software Libre al Senado de Madrid, haciéndolos visibles y dándoles el espacio e importancia que merecen”, comenta Cáceres a Noticias Positivas.
     En ese sentido, recuerda que el proyecto surge en 2004 a partir de la necesidad de “intervenir de una manera integradora y positiva” en un barrio con altas tasas de desempleo e inmigración con el propósito que ninguna persona quede excluida. Algunas de las actividades que desarrollan son formación para la ciudadanía, creación de blogs y cartelería para asociaciones y colectivos; desarrollo y dinamización del portal asociativo Elkarteak.info y televisión del barrio, en la que se refleja la iniciativa vecinal, social y comercial del Casco Viejo en Auzo.tv.
     Saregune, que dispone de dos salas equipadas con 28 ordenadores y diferentes periféricos, ha formado a centenares de personas en nuevas tecnologías y cada año pasan por el centro más de un millar de ciudadanos.
     En cuanto a la situación del software libre en España, la educadora considera que su evolución en los últimos años ha sido “meteórica, pasando de ser algo de frikis a tener respaldo con formación y empresas que lo desarrollan”. “No obstante, el camino por recorrer es muy largo, ya que es la ciudadanía quien tiene que conocerlo y usarlo para que realmente tenga una proyección real de uso y difusión. En ello, la administración tiene mucho que ver y aunque se oyen iniciativas a favor del software libre. La realidad es que queda mucho aún para que su uso esté totalmente normalizado”, admite.

Fuente: noticiaspositivas.net

miércoles, 18 de julio de 2012

I Congreso de Ciencia, Tecnología e Innovación en el Marco de la LOCTI y del PEII. Boletín 1

El Ministerio del Poder Popular para Ciencia, Tecnología e Innovación (MCTI) y sus entes adscritos, de cara al objetivo histórico nacional del “desarrollo de nuestras capacidades científico tecnológicas, vinculadas a las necesidades del pueblo”, CONVOCA a toda la comunidad de investigadores, tecnólogos e innovadores del país al I Congreso de Ciencia, Tecnología e Innovación en el Marco de la LOCTI y del PEII. Este Congreso tiene la finalidad de mostrar los avances en las áreas de Ciencia, Tecnología e Innovación que se han realizado en el país, así como efectuar un balance crítico y prospectivo de los proyectos de investigación, desarrollos tecnológicos y de los productos de innovadores, inventores y cultores de la ciencia, que redunda en su utilidad y beneficios para los venezolanos, su industrialización, sus sistemas productivos, la sustentabilidad y armonía con el ambiente, en las soluciones a problemas básicos de salud pública, en la calidad del hábitat y soberanía alimentaria, en la seguridad y defensa, entre otros. El evento se realizará del 23 al 25 de septiembre, en Caracas.

CONSIDERACIONES GENERALES:

  • Inscripción y registro en el evento, sin costo para el participante que incluye material de apoyo, refrigerios, certificados, acceso a la feria y exposiciones institucionales.
  • Los que sean aceptados en el Congreso serán válidos como credencial ante las comisiones de clasificación y/o acreditación del PEII.
  • Los trabajos inextenso aceptados serán publicados en las memorias del Congreso.
  • Los trabajos a presentar no pueden haber sido publicados anteriormente.
  • La inscripción se hará vía planilla electrónica a través de la página web del Oncti www.oncti.gob.ve. 
  • Las postulación de los trabajos se hará hasta el día 18 de agosto, y se formalizará a través de la página web en un sistema automatizado dispuesto para ello.

Actividades del Congreso:

Simposios, presentaciones orales, carteles, exposición, conferencias y actividades culturales. Simposios: Se llevarán a cabo al menos seis (6) simposios. Ponencias o exposiciones orales: Se llevarán a cabo ponencias orales diarias entre los pares, en ellas se presentarán las experiencias y resultados de los proyectos desarrollados en las áreas prioritarias de ciencia, tecnología e innovación, con discusión y propuestas a partir de los resultados alcanzados en los mismos. Galería: Se realizará una exposición con posters de los proyectos de investigación y de los prototipos de los innovadores, que se rotará diariamente. Feria -Exposición: Se dispondrá de un espacio para la exposición de resultados de proyectos y políticas de transferencia tecnológica que muestren los avances en las áreas de trabajo en ciencia, tecnología e innovación. Plenaria: para el último día se hará la relatoría de los simposios, y el balance de las ponencias y sesiones de carteles, así como el resumen de propuestas y discusiones que emanen de las conferencias, se enfatizará en los acuerdos alcanzados y se clausurará el evento con la intervención final del Ciudadano Ministro del Poder Popular para Ciencia, Tecnología e Innovación.

ÁREAS TEMÁTICAS

  • Telecomunicaciones
  • Ciencias de la Tierra
  • Biología y Salud Pública
  • Ciencias Económicas y Sociales
  • Física, Química y Matemática
  • Agro, Tecnología de Alimentos y Ambiente
  • Energía y Petróleo
  • Humanidades, Artes y Educación
  • Desarrollo Sustentable
  • Geomática
  • Ingeniería, Arquitectura y Urbanismo
  • Geopolítica y Desarrollo Comunal
  • Innovación y Desarrollo Tecnológico
  • Seguridad y Defensa

CRONOGRAMA:

Fecha de Entrega de resúmenes: del 18 de julio al 18 de agosto de 2012
Evaluación de las propuestas: del 21 al 3 de septiembre
Notificación de la aceptación de trabajos: del 03 al 07 de septiembre 2012
Fecha del Evento: 23, 24 y 25 de septiembre

Fuente: locti.co.ve