PortalProgramas celebra la 4ª edición de los premios al Mejor Software
Libre para poder dar a conocer y promover los mejores programas de
código abierto.
Las votaciones corren a cargo de los usuarios
quienes hasta el próximo 6 de diciembre decidirán qué programas deben de
estar en la lista de Mejor Software Libre 2012. Las nominaciones se
pueden hacer desde la página de PortalProgramas.
A partir de esta fecha, y hasta el 28 del mismo mes, comenzará el
proceso de votación de los programas elegidos en las diferentes
categorías. La lista de ganadores se hará publica el 15 de enero, fecha
en la que también se procederá a la entrega de premios.
Dos de categorías tendrán un premio especial de 300 euros que podrán
destinar al desarrollo de su proyecto. Estas son: “Software Libre con
mayor potencial de crecimiento”, ya que, según la organización, el
futuro del open source depende del potencial de estos programas, y
“Mejor blog de Software Libre”, puesto que la difusión mediática acerca
de este tipo de software es esencial para dar a conocer la calidad de
muchos programas.
Para acceder a las bases del concurso, la organización ha puesto a disposición de todos los interesados la web http://www.portalprogramas.com/software-libre/premios/bases.
Fuente: somoslibres.org
Blog que imparte conocimientos a todas las personas que les interese el mundo de la tecnología, software libre y programación.
jueves, 6 de diciembre de 2012
APN debe ir a software libre
La administración pública cumplirá finalmente con el Decreto 3.390 y
migrará a software libre? El Mcti, a través del Centro Nacional de
Tecnología de Información, Cnti, dio plazo a los entes gubernamentales
hasta el 31 de diciembre de este año para publicar en la Gaceta Oficial
sus planes institucionales de migración para la implementación
progresiva de las tecnologías de información libres, de acuerdo a lo
establecido en el artículo 12 del Decreto presidencial 3.390. Una tarea
que se debía cumplir por allá por junio de 2005, por lo menos seis meses
después su publicación en Gaceta Oficial (diciembre del 2004).
Posteriormente, en un plazo de dos años, los diferentes servicios
informáticos de la administración pública deberían haber migrado a
software libre. Pero a ocho años del famoso decreto, el mandato está
pendiente. Hay que decir que, de acuerdo a las notas de prensa oficiales
que hemos recibido periódicamente durante los últimos años, el Cnti no
ha dejado de insistir en esta tarea, que a la luz de los hechos no
parece haber sido (ni será) fácil. Hoy, se está todavía en la primera
fase de definir los planes de migración de los diferentes organismos
públicos. Desde entonces, el software libre se ha fortalecido y ha
tenido notables avances en herramientas y aplicaciones críticas, lo que
debe facilitar la implementación. En el camino se creó el Marco de
Interoperabilidad para los organismos y entes de la administración
pública, bajo la coordinación del Cnti, el cual es una guía para la
creación, desarrollo e implementación de la interoperabilidad
intergubernamental y se seleccionó como estándar a los sistemas abiertos
y software libre para la implementación e integración de las diferentes
plataformas de la administración pública. Más recientemente, en junio
de este año, fue promulgada (Decreto No. 9.051) la Ley sobre el Acceso e
Intercambio Electrónico de Datos, Información y Documentos entre los
Órganos y Entes del Estado, conocida como la Ley de Interoperabilidad
que debe entrar en vigencia en el 15/06/2014, que permitiría deslastrar
los complejos trámites burocráticos ante los organismos públicos. Los
dos decretos con rango de ley (el 3.390 y el 9.051) están estrechamente
vinculados. De allí que desde el 15 de noviembre el Centro Nacional de
Tecnologías de Información haya iniciado el levantamiento de información
para determinar los avances en la adopción de sistemas de información
libres en la administración Pública Nacional correspondiente al año
2012. La información oficial indica que las instituciones públicas
deberán registrar su cuenta institucional y completar la información
solicitada (como formación del personal, estaciones de trabajo bajo
Software Libre, servicios informáticos y aplicaciones críticas).
Fuente: www.entornointeligente.com
Etiquetas:
Noticias
sábado, 10 de noviembre de 2012
¿Qué es la Programación Extrema?
La programación extrema o eXtreme Programming (XP) es una metodología de desarrollo de la ingeniería de software formulada por Kent Beck, autor del primer libro sobre la materia, Extreme Programming Explained: Embrace Change (1999). Es el más destacado de los procesos ágiles de desarrollo de software. Al igual que éstos, la programación extrema se diferencia de las metodologías tradicionales principalmente en que pone más énfasis en la adaptabilidad que en la previsibilidad. Los defensores de XP consideran que los cambios de requisitos sobre la marcha son un aspecto natural, inevitable e incluso deseable del desarrollo de proyectos. Creen que ser capaz de adaptarse a los cambios de requisitos en cualquier punto de la vida del proyecto es una aproximación mejor y más realista que intentar definir todos los requisitos al comienzo del proyecto e invertir esfuerzos después en controlar los cambios en los requisitos.
Se puede considerar la programación extrema como la adopción de las mejores metodologías de desarrollo de acuerdo a lo que se pretende llevar a cabo con el proyecto, y aplicarlo de manera dinámica durante el ciclo de vida del software.
Fuente: Wikipedia.org
Fuente: Wikipedia.org
Etiquetas:
Definición
miércoles, 8 de agosto de 2012
Instalar la ultima versión de iceweasel en debian squeeze
Un cordial Saludo.
Lo primero que tenemos que hacer es abrir el archivo sources.list con el siguiente comando logueados como root.
#pico /etc/apt/sources.list
Y agregar los siguientes repositorios:
deb http://backports.debian.org/debian-backports squeeze-backports main contrib non-free
deb http://mozilla.debian.net/ squeeze-backports iceweasel-release
Luego guardamos y ejecutamos un update con el siguiente comando:
apt-get update
Ahora añadimos la llave pública del repositorio Mozilla backports a apt.
# wget -O- -q http://mozilla.debian.net/archive.asc | apt-key add -
Ahora actualizamos el iceweasel con:
apt-get install -t squeeze-backports iceweasel
Lo primero que tenemos que hacer es abrir el archivo sources.list con el siguiente comando logueados como root.
#pico /etc/apt/sources.list
Y agregar los siguientes repositorios:
deb http://backports.debian.org/debian-backports squeeze-backports main contrib non-free
deb http://mozilla.debian.net/ squeeze-backports iceweasel-release
Luego guardamos y ejecutamos un update con el siguiente comando:
apt-get update
Ahora añadimos la llave pública del repositorio Mozilla backports a apt.
# wget -O- -q http://mozilla.debian.net/archive.asc | apt-key add -
Ahora actualizamos el iceweasel con:
apt-get install -t squeeze-backports iceweasel
Etiquetas:
¿Cómo se hace?
domingo, 5 de agosto de 2012
Proximo nombre para la version 8.0 de debian GNU/Linux sera "Jessie"
Ante Todo un Cordial Saludo.
Ya es de saber para muchos que debian en su futura version 8.0 su nombre clave sera Jessie, para algunas personas no les gusta el nombre para otros si.... Yo en lo personal con respecto a los nombres clave de debian no me molesto son nombres identificatorios de cada versión y cada nombre viene de los personajes de toy story.
Yo me alegro de que debian siga evolucionando y añadiendo mejoras a traves del tiempo, ojo me refiero a debian GNU/Linux ya que el proyecto debian engloba ahora 3 kernels los cuales son FreeBSD, Hurd y Linux y estos nucleos son asociados al grupo de aplicaciones de software de el proyecto GNU y otros proyectos de software libre creando como resultado debian GNU/Hurd, debian GNU/FreeBSD y por ultimo debian GNU/Linux.
Debian es una distribución, un proyecto y una maquinaria. El proyecto debian lo agrupan miles de programadores a nivel global, y para mi no queda más que decir que debian es El sistema Operativo Universal con cualquiera de sus nucleos disponibles aunque yo uso debian GNU/Linux por que es el más estable, aunque si quieren saber más detalles de lo que digo pueden entrar en debian.org.
Espero escribir un nuevo artículo pronto hasta la proxima.
Ya es de saber para muchos que debian en su futura version 8.0 su nombre clave sera Jessie, para algunas personas no les gusta el nombre para otros si.... Yo en lo personal con respecto a los nombres clave de debian no me molesto son nombres identificatorios de cada versión y cada nombre viene de los personajes de toy story.
Yo me alegro de que debian siga evolucionando y añadiendo mejoras a traves del tiempo, ojo me refiero a debian GNU/Linux ya que el proyecto debian engloba ahora 3 kernels los cuales son FreeBSD, Hurd y Linux y estos nucleos son asociados al grupo de aplicaciones de software de el proyecto GNU y otros proyectos de software libre creando como resultado debian GNU/Hurd, debian GNU/FreeBSD y por ultimo debian GNU/Linux.
Debian es una distribución, un proyecto y una maquinaria. El proyecto debian lo agrupan miles de programadores a nivel global, y para mi no queda más que decir que debian es El sistema Operativo Universal con cualquiera de sus nucleos disponibles aunque yo uso debian GNU/Linux por que es el más estable, aunque si quieren saber más detalles de lo que digo pueden entrar en debian.org.
Espero escribir un nuevo artículo pronto hasta la proxima.
Etiquetas:
Noticias
viernes, 3 de agosto de 2012
Herramientas liberadas en DefCon pueden romper cifrado PPTP en menos de un día...
La nueva herramienta y servicio podría descifrar cualquier sesión inalámbrica PPTP y WPA2 usando autenticación MS-CHAPv2.
Investigadores de seguridad lanzaron dos herramientas en la conferencia de seguridad DefCon que pueden ser utilizadas para romper el cifrado de cualquier PPTP (Point-to-Point Tunneling Protocol, protocolo de tunel punto a punto) y WAP2 que utiliza MS-CHAPv2 para autenticarse.
MS-CHAPv2 es un protocolo de autenticación creado por Microsoft e introducido en Windows NT 4.0 SP4. A pesar del tiempo que tiene, todavía se utiliza como mecanismo de autenticación primaria por la mayoría de clientes VPN (Redes Privadas Virtuales) con PPTP.
MS-CHAPv2 ha sido conocido por ser vulnerable a ataques de fuerza bruta basados en diccionario ??desde 1999, cuando un criptoanálisis del protocolo fue publicado por el criptógrafo Bruce Schneier y otros investigadores.
Sin embargo, la creencia común en Internet es que si se tiene una contraseña segura, entonces está bien, dijo Moxie Marlinspike, el investigador de seguridad que desarrolló ChapCrack, una de las herramientas lanzadas en la DefCon. "Lo que hemos demostrado es que no importa. No hay nada que se pueda hacer."
ChapCrack puede tomar el tráfico capturado de una red liga MS-CHAPv2 (VPN PPTP o WPA2 Enterprise) y reducir la seguridad a una sola clave DES (Data Encryption Standard).
Esta clave DES puede ser ingresada a CloudCracker.com, un servicio comercial de rompimiento de contraseñas en línea que se ejecuta en una caja especial FPGA desarrollado por David Hulton de Pico Computing, donde se puede descifrar en menos de un día.
La salida de CloudCracker se puede utilizar con ChapCrack para descifrar una sesión completa capturada con WireShark u otras herramientas de network sniffing.
PPTP es comúnmente utilizado por empresas pequeñas y medianas, las grandes empresas utilizan otras tecnologías de VPN como los proporcionados por Cisco, también es ampliamente usado por proveedores de servicios de VPN personal, dijo Marlinspike.
El investigador puso el ejemplo de IPredator, un servicio VPN de los creadores de The Pirate Bay, que se comercializa como una solución para eludir el rastreo ISP (Proveedor de Servicios de Internet, por sus siglas en inglés), pero sólo es compatible con PPTP.
Marlinspike aconsejó a empresas y proveedores de VPN dejar de usar PPTP y cambiar a otras tecnologías como IPsec u OpenVPN. Empresas con despliegue de redes inalámbricas que utilizan seguridad WPA2 Enterprise con autenticación de MS-CHAPv2 también deben cambiar a otra alternativa.
Fuente: zonavirus.com
Investigadores de seguridad lanzaron dos herramientas en la conferencia de seguridad DefCon que pueden ser utilizadas para romper el cifrado de cualquier PPTP (Point-to-Point Tunneling Protocol, protocolo de tunel punto a punto) y WAP2 que utiliza MS-CHAPv2 para autenticarse.
MS-CHAPv2 es un protocolo de autenticación creado por Microsoft e introducido en Windows NT 4.0 SP4. A pesar del tiempo que tiene, todavía se utiliza como mecanismo de autenticación primaria por la mayoría de clientes VPN (Redes Privadas Virtuales) con PPTP.
MS-CHAPv2 ha sido conocido por ser vulnerable a ataques de fuerza bruta basados en diccionario ??desde 1999, cuando un criptoanálisis del protocolo fue publicado por el criptógrafo Bruce Schneier y otros investigadores.
Sin embargo, la creencia común en Internet es que si se tiene una contraseña segura, entonces está bien, dijo Moxie Marlinspike, el investigador de seguridad que desarrolló ChapCrack, una de las herramientas lanzadas en la DefCon. "Lo que hemos demostrado es que no importa. No hay nada que se pueda hacer."
ChapCrack puede tomar el tráfico capturado de una red liga MS-CHAPv2 (VPN PPTP o WPA2 Enterprise) y reducir la seguridad a una sola clave DES (Data Encryption Standard).
Esta clave DES puede ser ingresada a CloudCracker.com, un servicio comercial de rompimiento de contraseñas en línea que se ejecuta en una caja especial FPGA desarrollado por David Hulton de Pico Computing, donde se puede descifrar en menos de un día.
La salida de CloudCracker se puede utilizar con ChapCrack para descifrar una sesión completa capturada con WireShark u otras herramientas de network sniffing.
PPTP es comúnmente utilizado por empresas pequeñas y medianas, las grandes empresas utilizan otras tecnologías de VPN como los proporcionados por Cisco, también es ampliamente usado por proveedores de servicios de VPN personal, dijo Marlinspike.
El investigador puso el ejemplo de IPredator, un servicio VPN de los creadores de The Pirate Bay, que se comercializa como una solución para eludir el rastreo ISP (Proveedor de Servicios de Internet, por sus siglas en inglés), pero sólo es compatible con PPTP.
Marlinspike aconsejó a empresas y proveedores de VPN dejar de usar PPTP y cambiar a otras tecnologías como IPsec u OpenVPN. Empresas con despliegue de redes inalámbricas que utilizan seguridad WPA2 Enterprise con autenticación de MS-CHAPv2 también deben cambiar a otra alternativa.
Fuente: zonavirus.com
Etiquetas:
Noticias
jueves, 2 de agosto de 2012
Constituida la Red Internacional de Software Libre
Tras los recientes y tristes acontecimientos en diferentes partes del planeta en retroceso de la libertad tecnológica y el ahorro, que no hacen más que demostrar que existen muchos intereses económicos, en ocasiones personales, para seguir despilfarrando dinero público en licencias de uso de aplicaciones privativas, y que la Comunidad del software libre, aunque muy apasionada, está muy poco estructurada u coordinada de forma global, se hace necesario crear una organización o Red que gestione el poder colectivo de movilización, apoyo, asesoramiento y lucha activa por el beneficio de la ciudadanía en su conjunto.
Durante el 13º Forum Internacional de Software Libre FISL, en la realización de la mesa de organizaciones civiles, se hizo patente la necesidad de organizarnos y coordinarnos de forma global, pero actuando de forma local. En una posterior reunión, participando algunas de las principales organizaciones de defensa del conocimiento libre de Iberoamérica como son la ASL, OSI, Solar o Iniciativa Focus se constituye la Red Internacional de Software Libre, cuyo acuerdo de mínimos y texto constitutivo es el siguiente (gracias a los amigos de Solar por levantar acta y publicarlo):
Acuerdo de creación de la Red Internacional de Software Libre (RISoL)
En el marco del Foro Internacional de Software Libre en su 13a edición en Porto Alegre, Brasil, participantes y representantes de comunidades y grupos de diversos países acuerdan la construcción de una Red Internacional de Software Libre. Entre los antecedentes del presente acuerdo se encuentran convenios previos tales como los firmados en FISL 2004, CONSEGI 2008 y Acuerdo Atlántico (FISL 2011).
Entendiendo que la defensa del Software Libre debe ser a nivel internacional y que el avance de políticas en su favor puede ser amenazado por distintos escenarios -como se evidencia por ejemplo en el caso paraguayo- la Red se propone los siguientes objetivos:
1. Afianzar las relaciones entre sus miembros para fortalecer la defensa de las iniciativas de Software Libre en sus países y regiones, a través de acciones globales coordinadas para apoyar las locales.
2. Difundir y defender al Software Libre como componente medular de la Soberanía Tecnológica.
3. Compartir experiencias, prácticas y documentación en el ámbito del Software y Conocimiento Libres, fortaleciendo y fomentando el trabajo local de sus miembros en cada uno de sus ámbitos de acción.
4. Generar y mantener una agenda estratégica de trabajo de La Red con el fin de expresar a través de diferentes voces, los objetivos consensuados.
Para ello se propone, al corto plazo, desarrollar un plan de acción conjunto para el cumplimiento de los objetivos compartidos y establecer los mecanismos y espacios más adecuados para el trabajo concreto y localizado. Convocamos a todos los actores comprometidos con el Software Libre a integrarse a esta Red y trabajar en sus objetivos fundacionales definiendo las acciones futuras.
Firmantes:
- ASL (Asociação Software Livre Brasil)
- SoLAr (Software Libre Argentina)
- Asociación Formación, Cultura y Solidaridad,
- Iniciativa Focus, España
- CISOL (Congreso Internacional de Software Libre), Zacatecas, México
- CESoL (Centro de estudios de Software Libre), Uruguay
- CTL (Centro de tecnologías libres), Chile
- SLE (Software Livre Educacional), Brasil
- CADESOL (Cámara de Empresas de Software Libre), Argentina
- COSIT AC, México
- COSOLIG (Comunidad Software LIbre Universidad Inca Garcilazo de la Vega), Perú
- COS (Centro Open Source), Perú
- SLGT (Software Libre Guatemala)
- MISOL (Misiones Software Libre), Argentina
Fuente: CNTI
Etiquetas:
Noticias
martes, 31 de julio de 2012
Stallman tiene sus dudas respecto de la llegada de Steam a Linux
El fundador del proyecto GNU y de la Free Software Foundation, Richard Stallman, se ha pronunciado respecto del anuncio de Valve de lanzar Steam para Linux. Para Stallman la incursión del software propietario en el mundo del código abierto tiene ventajas y también inconvenientes.
Steam aterrizará en Linux este año y esto es un hito importante para el sistema operativo. Valve puede haber marcado el inicio de un camino de convergencia hacia el mundo GNU/Linux para otros fabricantes de juegos, y de software en general. El impacto de la llegada a la plataforma libre de programas que de código cerrado, es el motivo de la reflexión de Stallman.
Por un lado, Stallman aprecia un beneficio evidente, como es el hecho de atraer hacia el mundo GNU/Linux a muchos usuarios que podrían sentirse cómodos con un sistema operativo que no emplean, abandonando Windows, uno de sus “demonios”.
Por otro ve un peligro, al mostrar a los usuarios como natural un camino que va en contra del ideario GNU. Si bien el balance conjunto entre beneficios y daños es positivo para Stallman, sus reticencias ante la mezcla de software propietario con código libre son evidentes: se pierde el espíritu de libertad que ampara la propuesta GNU.
Entiendo las razones de Stallman aunque no las comparto completamente. Su idea de libertad a la hora de emplear software debería contemplar, en mi opinión, la posibilidad de instalar libremente programas propietarios. La libertad del software no puede entenderse sin contemplar el libre albedrío de los usuarios, que deberían poder instalar a su criterio lo que tengan a bien utilizar en sus máquinas.
También entiendo sus reticencias respecto de la, entre comillas, corrupción que pueda representar para las distribuciones GNU/Linux la inclusión de software comercial privativo. El equilibrio es difícil y los extremos siempre delicados. Stallman defiende su causa con honestidad intelectual y coherencia con sus credos. En este sentido nada que objetar.
Supongo que siempre habrá distribuciones “puras”, como Debian, y otras con un enfoque mixto como Ubuntu. Como usuario quiero pensar en la posibilidad de emplear distribuciones de código abierto y utilizar software que satisfaga mis necesidades al margen del blindaje o apertura de sus fuentes.
Fuente: genbeta.com
Etiquetas:
Noticias
martes, 24 de julio de 2012
Deep Web: El lado invisible de la red
¿Alguna vez pensaste por qué navegamos la web y no la, por ejemplo,
buceamos? La respuesta es más sencilla de lo que te imaginas, pero
también es una respuesta que está oculta a la mayoría de los pobladores
efímeros de la Internet superficial. La Deep Web o la Red Profunda,
es toda aquella información en sitios web y otros formatos que no está
indexada por los motores de búsquedas convencionales y en ella se
esconde el 80% del contenido real de internet, donde habita información
clasificada, páginas olvidadas y hasta actividades delictivas. Entra y
síguenos con cautela en un viaje al lado invisible de la red.
Un misterio en las profundidades.
Aumentemos el suspenso. Como sabes y experimentas, la mayoría de los internautas tienen necesidades que resuelven en la red a la manera de investigación, comunicación, consumo y entretenimiento. Es así que la búsqueda de información en general, el correo, la compraventa de productos y el acceso a cualquier tipo de entretenimiento se constituyen como los motivadores principales del acceso a internet y, en consecuencia, del trabajo de los motores de búsqueda ofrecen millones de resultados inmediatos y, en general, muy útiles. Pero, los resultados que se consiguen, ¿son todos los que existen? Y además, ¿son los de mayor calidad?
La respuesta es un rotundo NO. Esto es así porque lo que vemos de internet gracias a los motores de búsquedas es apenas el azulino tono de la superficie de un océano profundo del que sólo vemos algunos metros hacia dentro. Un porcentaje irrisorio que esconde más de lo que muestra.
Aumentemos el suspenso. Como sabes y experimentas, la mayoría de los internautas tienen necesidades que resuelven en la red a la manera de investigación, comunicación, consumo y entretenimiento. Es así que la búsqueda de información en general, el correo, la compraventa de productos y el acceso a cualquier tipo de entretenimiento se constituyen como los motivadores principales del acceso a internet y, en consecuencia, del trabajo de los motores de búsqueda ofrecen millones de resultados inmediatos y, en general, muy útiles. Pero, los resultados que se consiguen, ¿son todos los que existen? Y además, ¿son los de mayor calidad?
La respuesta es un rotundo NO. Esto es así porque lo que vemos de internet gracias a los motores de búsquedas es apenas el azulino tono de la superficie de un océano profundo del que sólo vemos algunos metros hacia dentro. Un porcentaje irrisorio que esconde más de lo que muestra.
Deep Web o Invisible Web: El origen del concepto.
La Deep Web (Red profunda), antes (1994) denominada Invisible Web (no hace falta traducción), ha sido bautizada de esta manera en 2001 debido a que no es accesible directamente a través del uso del principal medio de navegación superficial en estos tiempos: los motores de búsquedas tradicionales o estándar. El motivo de esto se divide generalmente en tres factores. El primero es el técnico o involuntario, y es debido a una falta de actualización a nuevos estándares en cuanto a indexación o por el carácter dinámico de un sitio web (cambian de contenido constantemente, se renuevan a través de interacción del visitante, etc.) El segundo caso es el de los sitios privados y protegidos o aquellos que contienen documentos en formatos que no pueden ser indexados. En estos dos casos, el motor de búsqueda no encontrará en el código que leen sus robots un contenido asociable al cuál hacer referencia estática o directamente no podrá acceder a las bases de datos protegidas (bibliotecas, diccionarios, etc.), con lo que “pasará de largo” ante ese sitio. El otro caso es el de la decisión deliberada, pues el mismo desarrollador puede indicarle al motor de búsqueda que no revise periódicamente su código en busca de cambios a través de una variable como Follow / No Follow en el caso de Google. Si elige No Follow, los robots ignorarán el sitio y éste se mantendrá escondido, invisible, en la profundidad a la que muy pocos tendrán acceso.
La Deep Web (Red profunda), antes (1994) denominada Invisible Web (no hace falta traducción), ha sido bautizada de esta manera en 2001 debido a que no es accesible directamente a través del uso del principal medio de navegación superficial en estos tiempos: los motores de búsquedas tradicionales o estándar. El motivo de esto se divide generalmente en tres factores. El primero es el técnico o involuntario, y es debido a una falta de actualización a nuevos estándares en cuanto a indexación o por el carácter dinámico de un sitio web (cambian de contenido constantemente, se renuevan a través de interacción del visitante, etc.) El segundo caso es el de los sitios privados y protegidos o aquellos que contienen documentos en formatos que no pueden ser indexados. En estos dos casos, el motor de búsqueda no encontrará en el código que leen sus robots un contenido asociable al cuál hacer referencia estática o directamente no podrá acceder a las bases de datos protegidas (bibliotecas, diccionarios, etc.), con lo que “pasará de largo” ante ese sitio. El otro caso es el de la decisión deliberada, pues el mismo desarrollador puede indicarle al motor de búsqueda que no revise periódicamente su código en busca de cambios a través de una variable como Follow / No Follow en el caso de Google. Si elige No Follow, los robots ignorarán el sitio y éste se mantendrá escondido, invisible, en la profundidad a la que muy pocos tendrán acceso.
¿Qué hay en la Deep Web?.
Una vez definidas la Surface Web y la Deep Web (ordinariamente resumibles como indexadas y no indexadas), surge la pregunta sobre qué es lo que hay en todo esto que no vemos. ¿Qué nos estamos perdiendo? Para comprender lo que queda en el fondo, lo mejor es imaginarnos que sólo en el 2001 (donde los sitios personales como blogs y similares no habían explotado del todo) la información que se podía encontrar en la Deep Web era 500 veces mayor que en la superficial, teniendo la primera unos 91.000 Terabytes contra 197. Extrapolando los números de una manera más artesanal (no hay datos actuales al respecto, mismo por las propiedades de la Web Profunda), el crecimiento ha sido sin lugar a dudas inmenso, aunque hay que reconocer que en 10 años los sistemas de rastreo y la educación al respecto evolucionaron mucho y gigas y gigas de información de la Red profunda ahora son visibles.
En cuanto a contenido, la Deep Web está compuesta por todo tipo de información, que al ser tanta y tan variada, la categorización se vuelve obligatoria. Es así que entre lo que no se ve en la superficial, tendremos archivos que no tengan formatos del tipo HTML o de texto (principal fracaso de los sitios web completos en Flash) y también algunos documentos multimedia que no se indexan. Como mencionamos antes, el contenido dinámico será abundante, así como los sitios privados o personales. También se accederá a la llamada web contextual que varía según quién o desde donde se la visite y no hay que olvidar el contenido limitado a través de técnicas, etc.
Una vez definidas la Surface Web y la Deep Web (ordinariamente resumibles como indexadas y no indexadas), surge la pregunta sobre qué es lo que hay en todo esto que no vemos. ¿Qué nos estamos perdiendo? Para comprender lo que queda en el fondo, lo mejor es imaginarnos que sólo en el 2001 (donde los sitios personales como blogs y similares no habían explotado del todo) la información que se podía encontrar en la Deep Web era 500 veces mayor que en la superficial, teniendo la primera unos 91.000 Terabytes contra 197. Extrapolando los números de una manera más artesanal (no hay datos actuales al respecto, mismo por las propiedades de la Web Profunda), el crecimiento ha sido sin lugar a dudas inmenso, aunque hay que reconocer que en 10 años los sistemas de rastreo y la educación al respecto evolucionaron mucho y gigas y gigas de información de la Red profunda ahora son visibles.
En cuanto a contenido, la Deep Web está compuesta por todo tipo de información, que al ser tanta y tan variada, la categorización se vuelve obligatoria. Es así que entre lo que no se ve en la superficial, tendremos archivos que no tengan formatos del tipo HTML o de texto (principal fracaso de los sitios web completos en Flash) y también algunos documentos multimedia que no se indexan. Como mencionamos antes, el contenido dinámico será abundante, así como los sitios privados o personales. También se accederá a la llamada web contextual que varía según quién o desde donde se la visite y no hay que olvidar el contenido limitado a través de técnicas, etc.
¿Qué significa todo esto en términos de información disponible?.
Significa que podrás encontrar la puerta a base de datos (concepto importante en la Deep Web) con directorios gigantescos de información sobre meteorología, astronomía o cualquiera de las principales áreas en las que los gobiernos mantengan investigaciones constantes hasta bibliotecas de millones de tomos, diccionarios, sitios de noticias anónimos, datos financieros, hemerotecas, sitios de personas y empresas, publicaciones digitales de libros, y una fauna de copias de leyes, álbumes de fotografía histórica, directorios con información de personas y sus correos electrónicos o números telefónicos, informes como los de Wikileaks, foros de agrupaciones anónimas, comentarios de redes sociales, marcadores sociales, discusiones en foros, entre tantos otros contenidos que te estés imaginando.
Significa que podrás encontrar la puerta a base de datos (concepto importante en la Deep Web) con directorios gigantescos de información sobre meteorología, astronomía o cualquiera de las principales áreas en las que los gobiernos mantengan investigaciones constantes hasta bibliotecas de millones de tomos, diccionarios, sitios de noticias anónimos, datos financieros, hemerotecas, sitios de personas y empresas, publicaciones digitales de libros, y una fauna de copias de leyes, álbumes de fotografía histórica, directorios con información de personas y sus correos electrónicos o números telefónicos, informes como los de Wikileaks, foros de agrupaciones anónimas, comentarios de redes sociales, marcadores sociales, discusiones en foros, entre tantos otros contenidos que te estés imaginando.
El lado oscuro de la Deep Web.
Luego de leer lo anterior seguramente has quedado pensando en que faltaba lo tal vez más impactante de todo lo que queda afuera de los buscadores, y en este aspecto la ilegalidad y lo prohibido toman un papel preponderante en las intenciones del aprovechamiento de la Deep Web. Es así como en la misma podrás llegar a encontrar sitios donde se comercian drogas, armas y hasta servicios delictivos. Asimismo hay lugar para el intercambio de pedofilia y cualquier otro tipo de actividad ilegal de las que tendrás que mantenerte muy atento, pues además de contribuir pasivamente a que estas prácticas horrorosas se sigan nutriendo de público, también estarás expuesto a todo tipo de amenazas cibernéticas. Sin descontar la infiltración e investigación constante de organismos de seguridad en estos sitios. Pero no todo es negativo, pues paralelamente a los aspectos más reprobables que puede tener el Hacking en general (como se podrá apreciar en sitios donde se ofrecen servicios para destruir servidores, hackear cuentas, crear virus en comunidad, etc.), también se comparten conocimientos sobre sistemas, seguridad y mucho más que sin dudas es muy interesante y no genera consecuencias para el usuario promedio.
Luego de leer lo anterior seguramente has quedado pensando en que faltaba lo tal vez más impactante de todo lo que queda afuera de los buscadores, y en este aspecto la ilegalidad y lo prohibido toman un papel preponderante en las intenciones del aprovechamiento de la Deep Web. Es así como en la misma podrás llegar a encontrar sitios donde se comercian drogas, armas y hasta servicios delictivos. Asimismo hay lugar para el intercambio de pedofilia y cualquier otro tipo de actividad ilegal de las que tendrás que mantenerte muy atento, pues además de contribuir pasivamente a que estas prácticas horrorosas se sigan nutriendo de público, también estarás expuesto a todo tipo de amenazas cibernéticas. Sin descontar la infiltración e investigación constante de organismos de seguridad en estos sitios. Pero no todo es negativo, pues paralelamente a los aspectos más reprobables que puede tener el Hacking en general (como se podrá apreciar en sitios donde se ofrecen servicios para destruir servidores, hackear cuentas, crear virus en comunidad, etc.), también se comparten conocimientos sobre sistemas, seguridad y mucho más que sin dudas es muy interesante y no genera consecuencias para el usuario promedio.
¿Cómo se accede a la Deep Web?.
Aquí es donde normalmente surge una confusión, pues la Deep Web no refiere directamente a lo que se conocer como la Darknet o Dark web, pues como hemos visto, sólo una parte de su populoso contenido refiere a sitios donde es necesario ingresar de manera anónima. O mejor dicho, conviene ingresar de manera anónima. Por ello, para tener acceso a la parte más inocente, más informativa y más poblada de la Deep Web, debes utilizar motores de búsqueda especializados o temáticos, además de recorrer las ofertas de buscadores de base de datos como CompletePlanet, por ejemplo. Además de esto, y como muchos buscadores estándares han comenzado a indizar este tipo de sitios, una búsqueda del tipo “astronomical discoveries database” (recuerda que el 90% de los datos fuertes en internet están en inglés) podría enviarte directo a millones de oportunidades.
Aquí es donde normalmente surge una confusión, pues la Deep Web no refiere directamente a lo que se conocer como la Darknet o Dark web, pues como hemos visto, sólo una parte de su populoso contenido refiere a sitios donde es necesario ingresar de manera anónima. O mejor dicho, conviene ingresar de manera anónima. Por ello, para tener acceso a la parte más inocente, más informativa y más poblada de la Deep Web, debes utilizar motores de búsqueda especializados o temáticos, además de recorrer las ofertas de buscadores de base de datos como CompletePlanet, por ejemplo. Además de esto, y como muchos buscadores estándares han comenzado a indizar este tipo de sitios, una búsqueda del tipo “astronomical discoveries database” (recuerda que el 90% de los datos fuertes en internet están en inglés) podría enviarte directo a millones de oportunidades.
Acceder anónimamente a la Deep Web.
Si tu intención mientras navegas la web profunda o invisible es evitar los sistemas de análisis de tráfico y bucear con total anonimato en las profundidades de lo claro y lo obscuro (obligatorio encender un proxy), entonces te podemos recomendar (como primer acercamiento para el usuario sin experiencia) Tor.
Tor es una aplicación y también una red abierta que sirve como una herramienta (no infalible) para proteger tu privacidad en internet a través del anonimato. Sirve tanto para navegar como para usar mensajeros instantáneos y está abierto a todos los sistemas operativos. El proceso de conexión entre clientes o entre cliente y servidor a través de Tor se hace con encriptación y por diferentes y aleatorios canales (Onion Routing) para evitar el seguimiento de las identidades por parte del análisis de tráfico en redes públicas.
Si tu intención mientras navegas la web profunda o invisible es evitar los sistemas de análisis de tráfico y bucear con total anonimato en las profundidades de lo claro y lo obscuro (obligatorio encender un proxy), entonces te podemos recomendar (como primer acercamiento para el usuario sin experiencia) Tor.
Tor es una aplicación y también una red abierta que sirve como una herramienta (no infalible) para proteger tu privacidad en internet a través del anonimato. Sirve tanto para navegar como para usar mensajeros instantáneos y está abierto a todos los sistemas operativos. El proceso de conexión entre clientes o entre cliente y servidor a través de Tor se hace con encriptación y por diferentes y aleatorios canales (Onion Routing) para evitar el seguimiento de las identidades por parte del análisis de tráfico en redes públicas.
Ventajas y desventajas de la Deep Web
Cuando se ingresa a buscar información a la Deep Web las ventajas son las que toman el podio, pues se ha demostrado que al abrir el abanico de opciones de elección, las tasas de calidad aumentan considerablemente. Dadas las condiciones de la red y teniendo en cuenta que los motores de búsqueda no son necesariamente calificadores de calidad de información, es más factible encontrar artículos de calidad dentro de una base de datos de 100.000 que en una de 1.000. Por lo que las investigaciones sobre diversos temas, conseguirán mejores resultados –y más originales- con una búsqueda en esta parte de la web. Por otra parte es posible señalar el anonimato, la privacidad, y las oportunidades que esto puede dar antes situaciones de opresión y coartación de la libertad de expresión.
Las desventajas podrían estar protagonizadas por la dificultad del acceso a la web invisible por parte de los usuarios más legos, pues la abundancia de información y de procesos que hay que hacer para acceder a ella podría resultar abrumadora e incómoda (actualmente la cantidad de datos en la Deep Web, superan a toda la información impresa en el mundo entero). Además hay que contar el grado de peligrosidad que tiene esta parte de la web que no está controlada a nivel estándares por los propios navegadores ni por organizaciones de seguridad informática.
Cuando se ingresa a buscar información a la Deep Web las ventajas son las que toman el podio, pues se ha demostrado que al abrir el abanico de opciones de elección, las tasas de calidad aumentan considerablemente. Dadas las condiciones de la red y teniendo en cuenta que los motores de búsqueda no son necesariamente calificadores de calidad de información, es más factible encontrar artículos de calidad dentro de una base de datos de 100.000 que en una de 1.000. Por lo que las investigaciones sobre diversos temas, conseguirán mejores resultados –y más originales- con una búsqueda en esta parte de la web. Por otra parte es posible señalar el anonimato, la privacidad, y las oportunidades que esto puede dar antes situaciones de opresión y coartación de la libertad de expresión.
Las desventajas podrían estar protagonizadas por la dificultad del acceso a la web invisible por parte de los usuarios más legos, pues la abundancia de información y de procesos que hay que hacer para acceder a ella podría resultar abrumadora e incómoda (actualmente la cantidad de datos en la Deep Web, superan a toda la información impresa en el mundo entero). Además hay que contar el grado de peligrosidad que tiene esta parte de la web que no está controlada a nivel estándares por los propios navegadores ni por organizaciones de seguridad informática.
Internet tiene un fondo prolífico, donde la información queda anclada
en lo hondo esperando que se la descubra. Tanto en lo legal como en lo
ilegal, Internet tiene un sótano gigante que debe ser experimentado, por
eso en un próximo artículo te enseñaremos más específicamente cómo usar Tor
y descubriremos otros sistemas de navegación anónima. Por último, una
recomendación personal en cuanto a lo que puedas encontrarte en la Deep Web y
en sus zonas menos iluminadas: Disfruta, pero con cuidado; las
profundidades, como en cualquier aspecto de la vida, no son para
cualquiera.
Fuente: neoteo.com
Fuente: neoteo.com
Etiquetas:
Definición
lunes, 23 de julio de 2012
Los valores del software libre van más allá de la tecnología
“Además del coste económico por no ser necesario pagar
licencias, los beneficios de utilizar software libre son muchos más: la
ética y la filosofía del trabajo en equipo y la creación del
conocimiento compartido, son valores que transcienden al software y a la
tecnología y que podemos extrapolar a cualquier ámbito de la sociedad”,
sostiene Estibaliz Cáceres, educadora en nuevas tecnologías de
Saregune, un centro de inserción laboral del Casco Medieval de Vitoria,
en Álava.
La entidad vitoriana potencia el uso libre y gratuito en la formación
de accesos a las nuevas tecnologías a los ciudadanos en tres
vertientes: de forma individual, muestra las posibilidades de la red
para encontrar empleo, alfabetización digital, ofimática y blogs; como
herramienta para los colectivos y asociaciones vecinales, impulsa el
trabajo colectivo o la difusión de los eventos que se organicen; y en el
barrio, como instrumento para mejorar su imagen social o intercambiar
conocimientos.
El 17 de mayo pasado, Saregune recibió en el Senado de Madrid, con
motivo de la celebración del Día Mundial de las Telecomunicaciones y la
Sociedad de la Información, el premio Internet 2012 a la mejor
iniciativa sin ánimo de lucro, galardón impulsado por las Asociaciones
de Usuarios de Internet e Internautas de la Comunidad Iberoamericana de
Naciones, tras competir con 700 proyectos de España y Latinoamérica.
“Para nosotras, recibir el premio ha sido el reconocimiento al
trabajo de muchas personas durante más de ocho años. Y no solo eso,
Saregune llevó el Casco Viejo de Vitoria-Gasteiz y el Software Libre al
Senado de Madrid, haciéndolos visibles y dándoles el espacio e
importancia que merecen”, comenta Cáceres a Noticias Positivas.
En ese sentido, recuerda que el proyecto surge en 2004 a partir de la
necesidad de “intervenir de una manera integradora y positiva” en un
barrio con altas tasas de desempleo e inmigración con el propósito que
ninguna persona quede excluida. Algunas de las actividades que
desarrollan son formación para la ciudadanía, creación de blogs y
cartelería para asociaciones y colectivos; desarrollo y dinamización del
portal asociativo Elkarteak.info y televisión del barrio, en la que se
refleja la iniciativa vecinal, social y comercial del Casco Viejo en
Auzo.tv.
Saregune, que dispone de dos salas equipadas con 28 ordenadores y
diferentes periféricos, ha formado a centenares de personas en nuevas
tecnologías y cada año pasan por el centro más de un millar de
ciudadanos.
En cuanto a la situación del software libre en España, la educadora
considera que su evolución en los últimos años ha sido “meteórica,
pasando de ser algo de frikis a tener respaldo con formación y
empresas que lo desarrollan”. “No obstante, el camino por recorrer es
muy largo, ya que es la ciudadanía quien tiene que conocerlo y usarlo
para que realmente tenga una proyección real de uso y difusión. En ello,
la administración tiene mucho que ver y aunque se oyen iniciativas a
favor del software libre. La realidad es que queda mucho aún para que su
uso esté totalmente normalizado”, admite.
Fuente: noticiaspositivas.net
Fuente: noticiaspositivas.net
Etiquetas:
Noticias
miércoles, 18 de julio de 2012
I Congreso de Ciencia, Tecnología e Innovación en el Marco de la LOCTI y del PEII. Boletín 1
El Ministerio del Poder Popular para Ciencia, Tecnología e Innovación (MCTI) y sus entes adscritos, de cara al objetivo histórico nacional del “desarrollo de nuestras capacidades científico tecnológicas, vinculadas a las necesidades del pueblo”, CONVOCA a toda la comunidad de investigadores, tecnólogos e innovadores del país al
I Congreso de Ciencia, Tecnología e Innovación en el Marco de la LOCTI y del PEII.
Este Congreso tiene la finalidad de mostrar los avances en las áreas de Ciencia, Tecnología e Innovación que se han realizado en el país, así como efectuar un balance crítico y prospectivo de los proyectos de investigación, desarrollos tecnológicos y de los productos de innovadores, inventores y cultores de la ciencia, que redunda en su utilidad y beneficios para los venezolanos, su industrialización, sus sistemas productivos, la sustentabilidad y armonía con el ambiente, en las soluciones a problemas básicos de salud pública, en la calidad del hábitat y soberanía alimentaria, en la seguridad y defensa, entre otros.
El evento se realizará del 23 al 25 de septiembre, en Caracas.
CONSIDERACIONES GENERALES:
- Inscripción y registro en el evento, sin costo para el participante que incluye material de apoyo, refrigerios, certificados, acceso a la feria y exposiciones institucionales.
- Los que sean aceptados en el Congreso serán válidos como credencial ante las comisiones de clasificación y/o acreditación del PEII.
- Los trabajos inextenso aceptados serán publicados en las memorias del Congreso.
- Los trabajos a presentar no pueden haber sido publicados anteriormente.
- La inscripción se hará vía planilla electrónica a través de la página web del Oncti www.oncti.gob.ve.
- Las postulación de los trabajos se hará hasta el día 18 de agosto, y se formalizará a través de la página web en un sistema automatizado dispuesto para ello.
Actividades del Congreso:
Simposios, presentaciones orales, carteles, exposición, conferencias y actividades culturales.
Simposios: Se llevarán a cabo al menos seis (6) simposios.
Ponencias o exposiciones orales: Se llevarán a cabo ponencias orales diarias entre los pares, en ellas se presentarán las experiencias y resultados de los proyectos desarrollados en las áreas prioritarias de ciencia, tecnología e innovación, con discusión y propuestas a partir de los resultados alcanzados en los mismos.
Galería: Se realizará una exposición con posters de los proyectos de investigación y de los prototipos de los innovadores, que se rotará diariamente.
Feria -Exposición: Se dispondrá de un espacio para la exposición de resultados de proyectos y políticas de transferencia tecnológica que muestren los avances en las áreas de trabajo en ciencia, tecnología e innovación.
Plenaria: para el último día se hará la relatoría de los simposios, y el balance de las ponencias y sesiones de carteles, así como el resumen de propuestas y discusiones que emanen de las conferencias, se enfatizará en los acuerdos alcanzados y se clausurará el evento con la intervención final del Ciudadano Ministro del Poder Popular para Ciencia, Tecnología e Innovación.
ÁREAS TEMÁTICAS
- Telecomunicaciones
- Ciencias de la Tierra
- Biología y Salud Pública
- Ciencias Económicas y Sociales
- Física, Química y Matemática
- Agro, Tecnología de Alimentos y Ambiente
- Energía y Petróleo
- Humanidades, Artes y Educación
- Desarrollo Sustentable
- Geomática
- Ingeniería, Arquitectura y Urbanismo
- Geopolítica y Desarrollo Comunal
- Innovación y Desarrollo Tecnológico
- Seguridad y Defensa
CRONOGRAMA:
Fecha de Entrega de resúmenes: del 18 de julio al 18 de agosto de 2012
Evaluación de las propuestas: del 21 al 3 de septiembre
Notificación de la aceptación de trabajos: del 03 al 07 de septiembre 2012
Fecha del Evento: 23, 24 y 25 de septiembre
Fuente: locti.co.ve
Etiquetas:
Noticias
viernes, 30 de marzo de 2012
Flisol 2012 Alfin En San Sebastián, Aragua, Venezuela.
Por primera Vez en la Historia de San Sebastián de los Reyes se Celebrará un flisol y en este caso sera Flisol2012 aquí el afiche publicitario:
Etiquetas:
Noticias
lunes, 12 de marzo de 2012
¿Qué es pinguino?
Pingüino es un dispositivo electrónico, cuya funcionalidad principal es actuar como un Controlador Programable de Procesos, y está desarrollado bajo el modelo de Software y Hardware Libre, razón por la cual, es posible acceder al conocimiento tecnológico que sustenta su creación, para usarlo, estudiarlo y modificarlo con cualquier propósito, y distribuir las mejoras libremente.
Fuente: www.piguino.org.ve
Fuente: www.piguino.org.ve
Etiquetas:
Definición
domingo, 4 de marzo de 2012
Fotos de mi asistencia al Taller de Introducción a la robótica con hardware libre (espacificaciones de fabricacion abiertas).
Un cordial saludo.
Aquí muestro algunas imágenes de mi asistencia a dicho taller el cual es dictado de forma magistral por Joan Espinoza:
Espero que las personas que vean esto se interesen recomiendo que visiten:
http://netlynx.com.ve/
http://pinguino.cc/
http://www.pinguino.org.ve/
http://www.arduino.cc/es/
Aquí muestro algunas imágenes de mi asistencia a dicho taller el cual es dictado de forma magistral por Joan Espinoza:
Espero que las personas que vean esto se interesen recomiendo que visiten:
http://netlynx.com.ve/
http://pinguino.cc/
http://www.pinguino.org.ve/
http://www.arduino.cc/es/
Etiquetas:
Experiencias personales
sábado, 25 de febrero de 2012
¿Qué es Gecko?
Gecko es un motor de renderizado libre escrito en C++ y originalmente desarrollado por Netscape. Actualmente su desarrollo es gestionado por la Fundación Mozilla y la Corporación Mozilla.
Gecko es una plataforma para aplicaciones multiplataforma, es decir: permite ejecutar aplicaciones sobre su motor que se sirvan de tecnologías como XUL, XBL, PNG, HTTP, POP3, SMTP, RDS, CSS virtualmente en cualquier sistema operativo.
Anteriormente Gecko fue conocido con los nombres Raptor y NGLayout.
Fuente: Wikipedia.org
Gecko es una plataforma para aplicaciones multiplataforma, es decir: permite ejecutar aplicaciones sobre su motor que se sirvan de tecnologías como XUL, XBL, PNG, HTTP, POP3, SMTP, RDS, CSS virtualmente en cualquier sistema operativo.
Anteriormente Gecko fue conocido con los nombres Raptor y NGLayout.
Fuente: Wikipedia.org
Etiquetas:
Definición
lunes, 30 de enero de 2012
¿Qué es Trusted Computing?
La computación confiable (en inglés Trusted Computing) ha sido una estrategia de varias compañías entre las que destacan Intel y Microsoft para realizar el control de lo que se permite o no hacer con un computadora, o, por extensión, cualquier equipo con un microchip que permita esas capacidades.
Junto a la gestión de derechos digitales, se proporciona un entorno perfecto para evitar los denominados como usos no autorizados de material con copyright, especialmente, aunque no limitado a, películas de vídeo y música.
Fuente: Wikipedia.org
Junto a la gestión de derechos digitales, se proporciona un entorno perfecto para evitar los denominados como usos no autorizados de material con copyright, especialmente, aunque no limitado a, películas de vídeo y música.
Fuente: Wikipedia.org
Etiquetas:
Definición
miércoles, 25 de enero de 2012
Debian vuelve a ser la distribución Linux más popular en servidores
Debian, distribución GNU/Linux comunitaria y uno de los grandes estandartes del software libre, vuelve a ser el sistema basado en Linux preferido para su uso en servidores, recuperando el puesto que CentOS, clon de Red Hat Enterprise Linux, le arrebató en junio de 2010, informan en W3Techs. Las cifras apuntan a un 9,6% de cuota, lo que equivale al 29,4% de todos los sitios de Internet bajo sistemas Linux, a pesar de lo cual Debian se resiente un poco en lo que a las principales páginas web mayor tráfico se refiere, donde se tiene que conformar con el 8,5% del total -cifra destacable decualquier modo. Es en Europa donde Debian obtiene cuotas realmente importantes.
La popular Ubuntu, sistema que a su vez tiene su base tecnológica en Debian, es el destino de muchos de los usuarios que dejan a la segunda de lado en el terreno de los servidores. Aun así, Debian es el sistema operativo basado en Linux que más crece en ese área, obteniendo usuarios de las principales alternativas, a saber, CentOS, SUSE Linux y Fedora. No se cita a Red Hat, pero su presencia sigue siendo ampliamante inferior.
Fuente: http://gutl.jovenclub.cu
La popular Ubuntu, sistema que a su vez tiene su base tecnológica en Debian, es el destino de muchos de los usuarios que dejan a la segunda de lado en el terreno de los servidores. Aun así, Debian es el sistema operativo basado en Linux que más crece en ese área, obteniendo usuarios de las principales alternativas, a saber, CentOS, SUSE Linux y Fedora. No se cita a Red Hat, pero su presencia sigue siendo ampliamante inferior.
Fuente: http://gutl.jovenclub.cu
Etiquetas:
Noticias
domingo, 22 de enero de 2012
¿Qué significa Datos Abiertos (OpenData)?
Datos abiertos (open data en inglés) es una filosofía y práctica que persigue que determinados datos estén disponibles de forma libre a todo el mundo, sin restricciones de copyright, patentes u otros mecanismos de control.1 Tiene una ética similar a otros movimientos y comunidades abiertos como el código abierto (open source en inglés) y el acceso libre (open access en inglés).
Fuente: Wikipedia.org
Fuente: Wikipedia.org
Etiquetas:
Definición
Suscribirse a:
Entradas (Atom)