Hoy en el evento Filven de San Juan de los Morros, Estado Guarico, Venezuela, tuve el gusto de ser el padrino en la presentación del libro Software Libre en Venezuela cuyo autor es: Jose Santaella. Amigo, Profesor y Estudioso de la materia.
A continuación una imagen del momento de la presentacion del libro de Jose Santaella:
Felicitaciones por tu Publicación, Esperamos muchas más espero ahora hacer mi propia publicación cuento con tigo Santaella para ello.
Pronto en una nueva entrada hare referencia de donde se podrá comprar la obra del Autor: Jose Santaella.
Blog que imparte conocimientos a todas las personas que les interese el mundo de la tecnología, software libre y programación.
lunes, 29 de noviembre de 2010
sábado, 27 de noviembre de 2010
Como instalar Java en Ubuntu 10.04 LTS (actualizado)
En este momento hay un tutorial que muestra la forma sencilla de instalar Sun Java en Ubuntu 10.04 LTS Lucid Lynx en este enlace.
Los invito a que lo instalen de esa manera y no utilicen este tutorial.
No se si seré el único que no pudo encontrar como instalar Java desde los repositorios oficiales de Ubuntu o si realmente no se encuentran disponibles en esta versión de la popular distribución de Linux.
En todo caso, decidí hacer un pequeño tutorial para los que tienen el mismo problema y no saben como instalar Java en su flamante Ubuntu 10.04 LTS.
El Java que vamos a instalar es la versión oficial de Oracle, el JDK1.6.0_20, este contiene el Development Kit y el JRE.
Lo primero que debemos hacer es descargar la ultima versión del JDK la cual es la 1.6.0_20 desde el sitio oficial de Oracle y la guardaremos en la Carpeta Personal para que nos quede mas cómodo encontrarla y realizar los pasos del tutorial.
Una vez tengamos el binario correspondiente a la arquitectura de nuestra maquina siendo “jdk-6u20-linux-i586.bin” para plataformas x86 y “jdk-6u20-linux-x64.bin” para plataformas amd64, abrimos la Terminal y procedemos a darle permisos de ejecución al archivo binario para comenzar a instalar Java en nuestra maquina.
Los invito a que lo instalen de esa manera y no utilicen este tutorial.
No se si seré el único que no pudo encontrar como instalar Java desde los repositorios oficiales de Ubuntu o si realmente no se encuentran disponibles en esta versión de la popular distribución de Linux.
En todo caso, decidí hacer un pequeño tutorial para los que tienen el mismo problema y no saben como instalar Java en su flamante Ubuntu 10.04 LTS.
El Java que vamos a instalar es la versión oficial de Oracle, el JDK1.6.0_20, este contiene el Development Kit y el JRE.
Lo primero que debemos hacer es descargar la ultima versión del JDK la cual es la 1.6.0_20 desde el sitio oficial de Oracle y la guardaremos en la Carpeta Personal para que nos quede mas cómodo encontrarla y realizar los pasos del tutorial.
Una vez tengamos el binario correspondiente a la arquitectura de nuestra maquina siendo “jdk-6u20-linux-i586.bin” para plataformas x86 y “jdk-6u20-linux-x64.bin” para plataformas amd64, abrimos la Terminal y procedemos a darle permisos de ejecución al archivo binario para comenzar a instalar Java en nuestra maquina.
$ chmod +x jdk-6u20-linux-i586.bin
$ sudo ./jdk-6u20-linux-i586.bin
$ sudo ./jdk-6u20-linux-i586.bin
En este paso simplemente seguimos las instrucciones que nos entrega la Terminal la cual es aceptar el contrato de licencia.
Ahora vamos a mover el directorio creado por la instalación a un lugar mas apropiado para este como /usr/lib/jvm, esto lo logramos con el siguiente comando.
Ahora vamos a mover el directorio creado por la instalación a un lugar mas apropiado para este como /usr/lib/jvm, esto lo logramos con el siguiente comando.
$ sudo mv jdk1.6.0_20 /usr/lib/jvm
Ahora haremos del nuevo Java una de las alternativas de Java para el sistema con el siguiente comando.
$ sudo update-alternatives --install "/usr/bin/java" "java" "/usr/lib/jvm/jdk1.6.0_20/bin/java" 1
Configuremos la nueva alternativa como la opción por defecto al momento de correr Java en el sistema.
$ sudo update-alternatives --set java /usr/lib/jvm/jdk1.6.0_20/bin/java
Para terminar comprobemos la versión de java instalada en nuestro sistema con el comando “java -version”
Lo siguiente que debemos hacer es configurar el Development Kit de Java para los desarrolladores en este lenguaje.
Para esto debemos seguir casi los mismos pasos que realizamos para configurar el JRE pero esta vez cambiaremos un poco los comando quedando de la siguiente manera.
Lo siguiente que debemos hacer es configurar el Development Kit de Java para los desarrolladores en este lenguaje.
Para esto debemos seguir casi los mismos pasos que realizamos para configurar el JRE pero esta vez cambiaremos un poco los comando quedando de la siguiente manera.
$ sudo update-alternatives --install "/usr/bin/javac" "javac" "/usr/lib/jvm/jdk1.6.0_20/bin/javac" 1
$ sudo update-alternatives --set javac /usr/lib/jvm/jdk1.6.0_20/bin/javac
javac -version
$ sudo update-alternatives --set javac /usr/lib/jvm/jdk1.6.0_20/bin/javac
javac -version
Por ultimo debemos instalar el plugin de Java para que los navegadores puedan hacer uso de este con el siguiente comando.
$ sudo apt-get install sun-java6-plugin
Ya tenemos instalada y configurada la ultima versión de Java, ahora solo tenemos que comenzar a usarla.
Nota: estos pasos sirven para instalar tanto la versión para arquitecturas de 32 y 64 bits, solamente es necesario cambiar el nombre al momento de instalar el binario.
Actualización: La versión final de Ubuntu 10.04 LTS de 64 Bits no tiene disponible el paquete "sun-java6-plugin" lo que nos complica la vida al momento de enlazar el plugin con el navegador. Para solucionar esto, debemos enlazar manualmente Java con el navegador.
Para Mozila Firefox:
Para Chromium Browser:
Con los demás navegadores es exactamente igual, solo debes encontrar el directorio "plugins" dentro de /usr/lib64/tu_navegador/
Fuente: wereveryware.com
Nota: estos pasos sirven para instalar tanto la versión para arquitecturas de 32 y 64 bits, solamente es necesario cambiar el nombre al momento de instalar el binario.
Actualización: La versión final de Ubuntu 10.04 LTS de 64 Bits no tiene disponible el paquete "sun-java6-plugin" lo que nos complica la vida al momento de enlazar el plugin con el navegador. Para solucionar esto, debemos enlazar manualmente Java con el navegador.
Para Mozila Firefox:
$ cd /usr/lib64/firefox-addons/plugins
$ sudo ln -s /usr/lib/jvm/jdk1.6.0_20/jre/lib/amd64/libnpjp2.so
$ sudo ln -s /usr/lib/jvm/jdk1.6.0_20/jre/lib/amd64/libnpjp2.so
Para Chromium Browser:
$ cd /usr/lib64/chromium-browser/plugins
$ sudo ln -s /usr/lib/jvm/jdk1.6.0_20/jre/lib/amd64/libnpjp2.so
$ sudo ln -s /usr/lib/jvm/jdk1.6.0_20/jre/lib/amd64/libnpjp2.so
Con los demás navegadores es exactamente igual, solo debes encontrar el directorio "plugins" dentro de /usr/lib64/tu_navegador/
Fuente: wereveryware.com
Etiquetas:
¿Cómo se hace?,
Cita
90 GB de información en 1 gramo de bacterias.
Vía ddg se informa que, gracias a un nuevo sistema de codificación de datos denominado Bioencryption que podría revolucionar el mercado, científicos de la Universidad china de Hong Kong han conseguido almacenar hasta 90 GB de información biológica de ADN modificado en 1 gramo de bacterias.
El éxito del experimento les lleva a asegurar que este nuevo método de almacenamiento permite acumular 2 Terabytes en apenas unos gramos de bacterias. Más detalles en el Informe [inglés] en PDF.
Fuente: softwarelibre.net
El éxito del experimento les lleva a asegurar que este nuevo método de almacenamiento permite acumular 2 Terabytes en apenas unos gramos de bacterias. Más detalles en el Informe [inglés] en PDF.
Fuente: softwarelibre.net
Experto irlandés recomienda a Latinoamérica uso de Software Libre
Caracas, 26 Nov. AVN .- El creador e impulsor de la base de datos de código abierto MySQL, de mayor crecimiento del mundo y que utilizan clientes como Facebook, Google, Nokia, Baidu o China Mobile, Michael "Monty" Widenius, recomienda a América Latina no quedarse atrás en la utilización de tecnologías libres porque el futuro apunta hacia este modelo.
El experto finlandés consideró que los gobiernos y países latinoamericanos deben dejar de ser dependientes de empresas en el exterior que les venden software cerrado y trabajar en el desarrollo de plataformas abiertas que puedan reutilizar, copiar y redistribuir Widenius, en el II Congreso Iberoamericano de Conocimiento Libre realizado en Panamá, dijo que Latinoamérica se encuentra ante la encrucijada de continuar con el modelo de desarrollo de software cerrado o con uno de software abierto que impulsaría su crecimiento.
"Para Latinoamérica este es el modelo con el cual podemos marcar la pauta de nuestro propio destino, lo que es más importante que depender de un productor foráneo que, además, nos pone el precio de nuestro futuro", indicó.
En un programa de Software Libre el usuario tiene todas las libertades de ejecutarlo, cambiarlo y mejorarlo, lo que no puede hacer en uno de código cerrado (privado) por cuya licencia tiene que pagar, recordó.
De acuerdo con Widenius, la pregunta es: "¿Quiero yo vivir en un mundo donde me imponen el precio para que otro gane, o prefiero estar en un mundo de crecimiento basado en mi propio desarrollo?".
El experto citó un reciente estudio de la empresa Gardner International que señala que el 80% de las empresas encuestadas en todo el mundo admiten estar usando Software Libre o tener intenciones de hacerlo.
Esto "marca hacia dónde vamos en la utilización de tecnologías de plataformas abiertas", dijo, al subrayar que este tipo de plataformas ha empujado en su país el desarrollo de las empresas, en especial de las pequeñas.
También señaló que la utilización del software de código abierto se verá propulsado por la evolución continua de Internet y de los servicios de "nube informática", que permitirá que muchas empresas tengan más aplicaciones en la red de forma más eficiente y a mejor costo.
Puso el ejemplo de las principales redes sociales y todo el "fenómeno" que han creado alrededor del mundo y a las cuales todavía se le están buscando múltiples y variados usos.
Internet "ha evolucionado tanto que hay países como Finlandia donde ya próximamente va a ser libre por ley y gratis para todos, y, además, paralelamente a eso se están desarrollando nuevos dispositivos para que ya todo se conecte a Internet", resaltó
Fuente: avn
El experto finlandés consideró que los gobiernos y países latinoamericanos deben dejar de ser dependientes de empresas en el exterior que les venden software cerrado y trabajar en el desarrollo de plataformas abiertas que puedan reutilizar, copiar y redistribuir Widenius, en el II Congreso Iberoamericano de Conocimiento Libre realizado en Panamá, dijo que Latinoamérica se encuentra ante la encrucijada de continuar con el modelo de desarrollo de software cerrado o con uno de software abierto que impulsaría su crecimiento.
"Para Latinoamérica este es el modelo con el cual podemos marcar la pauta de nuestro propio destino, lo que es más importante que depender de un productor foráneo que, además, nos pone el precio de nuestro futuro", indicó.
En un programa de Software Libre el usuario tiene todas las libertades de ejecutarlo, cambiarlo y mejorarlo, lo que no puede hacer en uno de código cerrado (privado) por cuya licencia tiene que pagar, recordó.
De acuerdo con Widenius, la pregunta es: "¿Quiero yo vivir en un mundo donde me imponen el precio para que otro gane, o prefiero estar en un mundo de crecimiento basado en mi propio desarrollo?".
El experto citó un reciente estudio de la empresa Gardner International que señala que el 80% de las empresas encuestadas en todo el mundo admiten estar usando Software Libre o tener intenciones de hacerlo.
Esto "marca hacia dónde vamos en la utilización de tecnologías de plataformas abiertas", dijo, al subrayar que este tipo de plataformas ha empujado en su país el desarrollo de las empresas, en especial de las pequeñas.
También señaló que la utilización del software de código abierto se verá propulsado por la evolución continua de Internet y de los servicios de "nube informática", que permitirá que muchas empresas tengan más aplicaciones en la red de forma más eficiente y a mejor costo.
Puso el ejemplo de las principales redes sociales y todo el "fenómeno" que han creado alrededor del mundo y a las cuales todavía se le están buscando múltiples y variados usos.
Internet "ha evolucionado tanto que hay países como Finlandia donde ya próximamente va a ser libre por ley y gratis para todos, y, además, paralelamente a eso se están desarrollando nuevos dispositivos para que ya todo se conecte a Internet", resaltó
Fuente: avn
El sitio web de Secunia víctima de un ataque DNS
El website de la prestigiosa compañía de inteligencia de seguridad TI Secunia ha caído víctima, durante alrededor de una hora, de un ataque DNS que redirigía a sus visitantes a un sitio web diferente (ver video).
Parece que el ataque contra Secunia podría haber sido obra de un conocido hacker de idioma turco que se hace llamar “TurkGuvenligi”, cuyas intenciones aún no está claras.
La modificación de la apariencia de los sitios web constituye una amenaza frecuente, pero el secuestro DNS resulta teóricamente más difícil de perpetrar, dado que implica el cambio de los archivos DNS del sitio tomado como objetivo.
Así, el atacante supuestamente ha conseguido hackear la base de datos DNS a través de algún punto débil del sistema, probablemente algún pequeño ISP asociado a algún proveedor fiable en algún lugar de Internet.
Los ataques contra sitios de firmas de seguridad parecen constituir un reto especialmente atractivo para los atacantes precisamente por el elevado nivel de protección que, supuestamente, incorporan.
Fuente: blog.segu-info
Parece que el ataque contra Secunia podría haber sido obra de un conocido hacker de idioma turco que se hace llamar “TurkGuvenligi”, cuyas intenciones aún no está claras.
La modificación de la apariencia de los sitios web constituye una amenaza frecuente, pero el secuestro DNS resulta teóricamente más difícil de perpetrar, dado que implica el cambio de los archivos DNS del sitio tomado como objetivo.
Así, el atacante supuestamente ha conseguido hackear la base de datos DNS a través de algún punto débil del sistema, probablemente algún pequeño ISP asociado a algún proveedor fiable en algún lugar de Internet.
Los ataques contra sitios de firmas de seguridad parecen constituir un reto especialmente atractivo para los atacantes precisamente por el elevado nivel de protección que, supuestamente, incorporan.
Fuente: blog.segu-info
domingo, 21 de noviembre de 2010
¿Que es Bacula?
Bacula es una colección de herramientas de respaldo muy amplia, capaces de cubrir eficientemente las necesidades de respaldo de equipos bajo redes IP. Se basa en una arquitectura cliente/servidor que resulta muy eficaz y fácil de manejar, dada la amplia gama de funciones y características que brinda; copiar y restaurar ficheros dañados o perdidos. Además, debido a su desarrollo y estructura modular, Bacula se adapta tanto al uso personal como profesional, para parques de ordenadores muy grandes.
Para poder interactuar con el servicio de backup, necesitaremos un cliente:
Todo el conjunto de elementos que forman Bacula trabaja en sincronía y es totalmente compatible con bases de datos como MySQL, SQLite y PostgreSQL.
Fuente: Wikipedia
Elementos
Los elementos necesarios para que Bacula funcione son:- Bacula-director
- Es el demonio que gestiona la lógica de los procesos de backup y los demás servicios. El servidor de la base de datos debe estar accesible desde la máquina que ejecuta este demonio (o también puede estar en la misma máquina y escuchar en localhost).
- En el archivo de configuración de este demonio se especifica dónde y cómo acceder al resto de demonios y recursos, la contraseña para el acceso mediante bacula-console y los trabajos o jobs.
- Bacula-storage daemon
- Este demonio es el encargado de manejar los dispositivos de almacenamiento; esto exige que este demonio esté instalado en la máquina que posea la conexión física a los dispositivos de almacenamiento, tales como: discos locales, grabadoras de CD o DVD, unidades de cinta, volúmenes NAS o SAN, autocargadores o librerías de cinta.
- El fichero de configuración de este servicio define tanto los dispositivos de almacenamiento que maneja, como que directores pueden utilizarlo.
- Bacula-file daemon
- Mediante este demonio Bacula obtiene los ficheros que necesita respaldar, así pues éste es el componente que hay que instalar en las máquinas que necesiten respaldo. Realiza la misma función que los "agentes" en otros sistemas de backup.
- Este archivo de configuración es el más simple de todos, simplemente especifica qué directores pueden realizarle peticiones.
Para poder interactuar con el servicio de backup, necesitaremos un cliente:
- Bacula-console
Todo el conjunto de elementos que forman Bacula trabaja en sincronía y es totalmente compatible con bases de datos como MySQL, SQLite y PostgreSQL.
Fuente: Wikipedia
Etiquetas:
Cita,
Definición
Compartiendo el teclado y el ratón con X2X
Cómo usar X2X para compartir el teclado y el ratón de una máquina a otra. Este software parece que fue desarrollado originalmente por "Digital Equipment Coporation" y está disponible en Debian mediante el correspondiente apt-get install x2x Es una manera muy cómoda de, por ejemplo, manejar el portátil conectado a la red desde el PC cuando están uno junto al otro. Hay otro programa, éste multiplataforma, que se llama synergy y que hace lo mismo, pero esta vez usando la misma arquitectura.
Fuente: softwarelibre.net
Fuente: softwarelibre.net
Etiquetas:
¿Cómo se hace?,
Cita
sábado, 20 de noviembre de 2010
Compiere
Compiere es una aplicación para negocios de código abierto, ERP y CRM
destinada para las empresas de pequeño y mediano tamaño y con una gran expansión en el mercado anglosajón en los últimos años.
Compiere esta desarrollada usando J2EE. La aplicación y el código fuente se provee sobre la base de distribución libre bajo una licencia basada en la licencia publica Mozilla. Puede ser configurada y extendida dentro de la aplicación y por medio de la adición de componentes modulares. La documentación y el soporte solo están disponibles mediante pago.
Desde la versión 2.5.2, Compiere es independiente de la base de datos, y existe una infraestructura para la conexión a múltiples bases de datos. La conectividad a las siguiente bases de datos: PostgreSQL, MySQL y Sybase puede estar disponible o en procesos de completarse pero no es soportada oficialmente por Compiere, que continúa soportando únicamente Oracle como base de datos "oficial".
Aunque Compiere está gobernado por una licencia de software libre derivada de la MPL 1.1, la CPL 1.1 (Compiere Public License), realmente es difícil saber cuánto del producto es código abierto y cuánto no, al incluir varias librerías internas cuyo código no se proporciona con el producto e incluso algunas de pago (de terceros en cualquier caso) que realizan funciones centrales en el producto. Asimismo, la propia licencia CPL incluye la posibilidad clara de que la empresa desarrolladora pase partes, o la totalidad del código, a licencia comercial transcurridos dos años de su fecha de lanzamiento.
Actualmente existen bastantes consultores en todo el mundo dando soporte del producto Compiere; algunos (unos pocos) homologados directamente por la empresa desarrolladora, otros lo hacen de manera independiente. También existen varios proyectos adicionales derivados de Compiere, algunos son simplemente ligeras adaptaciones del producto para tratar de ponerlo acorde con las necesidades legales en diversos países (Compiere está muy orientada a la legislación norteamericana únicamente y es difícilmente adaptable en algunos puntos a diversas leyes Europeas y sudamericanas, sobre todo en al apartado contable y fiscal). Otros son proyectos independientes de documentación libre de Compiere (La documentación oficial de Compiere no está disponible bajo licencia libre). Otros son proyectos más elaborados que cubren nuevas facetas que Compiere no desarrolla y finalmente otros están construidos a partir de Compiere o con fusión de Compiere y otros ERPs o programas de gestión de software libre, pero ampliando sus características y mejorando la personalización y adaptación legal para un determinado país o zona.
Fuente: Wikipedia
destinada para las empresas de pequeño y mediano tamaño y con una gran expansión en el mercado anglosajón en los últimos años.
Compiere esta desarrollada usando J2EE. La aplicación y el código fuente se provee sobre la base de distribución libre bajo una licencia basada en la licencia publica Mozilla. Puede ser configurada y extendida dentro de la aplicación y por medio de la adición de componentes modulares. La documentación y el soporte solo están disponibles mediante pago.
Desde la versión 2.5.2, Compiere es independiente de la base de datos, y existe una infraestructura para la conexión a múltiples bases de datos. La conectividad a las siguiente bases de datos: PostgreSQL, MySQL y Sybase puede estar disponible o en procesos de completarse pero no es soportada oficialmente por Compiere, que continúa soportando únicamente Oracle como base de datos "oficial".
Aunque Compiere está gobernado por una licencia de software libre derivada de la MPL 1.1, la CPL 1.1 (Compiere Public License), realmente es difícil saber cuánto del producto es código abierto y cuánto no, al incluir varias librerías internas cuyo código no se proporciona con el producto e incluso algunas de pago (de terceros en cualquier caso) que realizan funciones centrales en el producto. Asimismo, la propia licencia CPL incluye la posibilidad clara de que la empresa desarrolladora pase partes, o la totalidad del código, a licencia comercial transcurridos dos años de su fecha de lanzamiento.
Actualmente existen bastantes consultores en todo el mundo dando soporte del producto Compiere; algunos (unos pocos) homologados directamente por la empresa desarrolladora, otros lo hacen de manera independiente. También existen varios proyectos adicionales derivados de Compiere, algunos son simplemente ligeras adaptaciones del producto para tratar de ponerlo acorde con las necesidades legales en diversos países (Compiere está muy orientada a la legislación norteamericana únicamente y es difícilmente adaptable en algunos puntos a diversas leyes Europeas y sudamericanas, sobre todo en al apartado contable y fiscal). Otros son proyectos independientes de documentación libre de Compiere (La documentación oficial de Compiere no está disponible bajo licencia libre). Otros son proyectos más elaborados que cubren nuevas facetas que Compiere no desarrolla y finalmente otros están construidos a partir de Compiere o con fusión de Compiere y otros ERPs o programas de gestión de software libre, pero ampliando sus características y mejorando la personalización y adaptación legal para un determinado país o zona.
Fuente: Wikipedia
Etiquetas:
Cita,
Definición
El parche “milagro” de Linux de 200 lineas implementado en 4 lineas de Bash
Seguro que de estos días os suena (pues ya muchos sitios han hablado de ello) de una pequeña modificación al kernel que incrementaria el rendimiento. Pues bien ese mismo efecto puede conseguirse simplemente con 4 lineas de scripting que un desarrollador de Red hat: Lennart Poettering, le envió a Linus Torvalds. Ha habido una acalorada discusión entre ellos, pero a mi esos minucias sin “demasiada importancia” ya no me interesan.
En principio para usar esta modificación bastaria con añadir:
if [ "$PS1" ] ; then
mkdir -m 0700 /sys/fs/cgroup/cpu/user/$$
echo $$ > /sys/fs/cgroup/cpu/user/$$/tasks
fi
Al final de nuestro fichero .bashrc y luego ejecutar como root:
mount -t cgroup cgroup /sys/fs/cgroup/cpu -o cpu
mkdir -m 0777 /sys/fs/cgroup/cpu/user
Esto en Ubuntu sin embargo no funciona (deberiamos cambiar /sys/fs por /dev), Asi que haremos lo siguiente:
Desde /etc/local ejecutamos:
mkdir -p /dev/cgroup/cpu
mount -t cgroup cgroup /dev/cgroup/cpu -o cpu
mkdir -m 0777 /dev/cgroup/cpu/user
Al final de nuestro fichero .bashrc pondremos:
if [ "$PS1" ] ; then
mkdir -m 0700 /dev/cgroup/cpu/user/$$
echo $$ > /dev/cgroup/cpu/user/$$/tasks
fi
Y finalmente damos permisos de ejecucion:
sudo chmod +x /etc/rc.local
Respecto a la supuesta modificación, Los usuarios de desarrollo de Natty están muy contentos, pudieron insertar los cambios en la (proxima) versión 2.6.38 y ya llevan algun tiempo usandolo en los kernels de server.
Fuente: DistroTEST
En principio para usar esta modificación bastaria con añadir:
if [ "$PS1" ] ; then
mkdir -m 0700 /sys/fs/cgroup/cpu/user/$$
echo $$ > /sys/fs/cgroup/cpu/user/$$/tasks
fi
Al final de nuestro fichero .bashrc y luego ejecutar como root:
mount -t cgroup cgroup /sys/fs/cgroup/cpu -o cpu
mkdir -m 0777 /sys/fs/cgroup/cpu/user
Esto en Ubuntu sin embargo no funciona (deberiamos cambiar /sys/fs por /dev), Asi que haremos lo siguiente:
Desde /etc/local ejecutamos:
mkdir -p /dev/cgroup/cpu
mount -t cgroup cgroup /dev/cgroup/cpu -o cpu
mkdir -m 0777 /dev/cgroup/cpu/user
Al final de nuestro fichero .bashrc pondremos:
if [ "$PS1" ] ; then
mkdir -m 0700 /dev/cgroup/cpu/user/$$
echo $$ > /dev/cgroup/cpu/user/$$/tasks
fi
Y finalmente damos permisos de ejecucion:
sudo chmod +x /etc/rc.local
Respecto a la supuesta modificación, Los usuarios de desarrollo de Natty están muy contentos, pudieron insertar los cambios en la (proxima) versión 2.6.38 y ya llevan algun tiempo usandolo en los kernels de server.
Fuente: DistroTEST
Etiquetas:
¿Cómo se hace?,
Cita,
Noticias
jueves, 18 de noviembre de 2010
Como montar un ciber con debian GNU/Linux 5.0 lenny
Bueno con esta entrada no vengo a dar una primicia solo a explicar mis experiencias montando un ciber con GNU/Linux debian 5.0 lenny.
Primero hice una busqueda de programas que me permitieran gestionar a los clientes desde un servidor encontre 2 opciones:
- cyborg
- mkahawa (el cual use este)
En dicho ciber tenia a mi disposición 19 equipos pentium 3 (cuestión que me puso algo nervioso por que son equipos con pocos recursos y muy antiguos) las caracteristicas de todos los equipos son:
----Clientes----
cpu: petium 3 450mhz
ram: 128mb
disco duro: 6gb
----Servidor----
cpu: petium 3 450mhz
ram: 384mb
disco duro: 6gb
Bueno aqui viene lo bueno ya que el entorno grafico que use fue gnome (por defecto en debian).
Y comence a formatear todos los clientes (los cuales tenian windows millenium) los cuales les hice una instalación estandar de debian.
Luego para configurar los clientes instale lo siguiente:
- sqlite3
- libsqlite3-dev
- libfox-1.6
- libcclc
- mkahawa-client
Al instalar mkahawa-client nos pedira el nombre del equipo y del cliente como el nombre del equipo le puse cliente1 lo use tanto para nombre del equipo y del cliente nos pedira la direccion ip del host no se coloca nada solo se pulsa enter
Para ejecutar el programa que bloquea los clientes debes ejecutar el siguiente comando:
mkahawa-client -host x.x.x.x -name cliente1 -nossl
en la opcion -host se especifica la ip del server que gestiona los clientes
la opcion -nossl nos permine ejecutar el programa sin usar una conexion segura luego explicare como hay que hacer para ejecutar la conexion segura.
Si la maquina se bloquea quiere decir que ya tenemos un cliente con mkahawa client funcional solo hay que aplicar el mismo proceso para los demas clientes.
Luego vamos a configurar el servidor instalando los siguentes paquetes:
- sqlite3
- libsqlite3-dev
- libfox-1.6
- libccls
- mkahawa-srv
En el servidor una ves instalados los paquetes solo tenemos que ejecutar el comando
mkahawa -nossl
Como generar los certificados para la conexión segura para no tener que usar la opcion -nossl.
Editor de texto solo tenemos que crear un archivo .sh con el siguiente codigo:
#!/bin/sh
echo "Generando certificados SSL/TLS"
PWD=`pwd`
TMPDIR="cert_tmp"
mkdir $TMPDIR
mkdir -p $TMPDIR/demoCA/private/
mkdir -p $TMPDIR/demoCA/newcerts
mkdir -p $TMPDIR/demoCA/certs
mkdir -p $TMPDIR/demoCA/crl
cd $TMPDIR
touch demoCA/index.txt
echo "01" > demoCA/serial
echo -n "generate self-signed CA ... "
echo -e ".\n.\n.\n.\n.\n`hostname`\n.\n" | \
openssl req -new -x509 -nodes \
-keyout demoCA/private/cakey.pem \
-out demoCA/cacert.pem -days 3650 2>/dev/null 1>&2
echo "done"
echo -n "generate certificate and sign request ... "
echo -e ".\n.\n.\n.\n.\nccl\n.\n\n\n" | \
openssl req -new -nodes \
-keyout key.pem -out newreq.pem \
-days 3650 2>/dev/null 1>&2
cat newreq.pem key.pem > new.pem
echo "done"
echo -n "sign certificate with newly created CA ... "
echo -e "y\ny\n" | openssl ca \
-policy policy_anything \
-out cert.pem -infiles new.pem 2>/dev/null 1>&2
sleep 2
echo "done"
cp demoCA/cacert.pem CAcert.pem
cp CAcert.pem ../CA.pem
cat key.pem cert.pem > ../cert.pem
cd $PWD
rm -rf $TMPDIR
echo -e "\n\nCopie cert.pem y CA.pem a ~/.mkahawa en el servidor y a ~/.mkahawa en los clientes\n"
Luego guardamos el archivo.
y desde la consola ejecutamos el archivo .sh de la siguente manera para que genere los certificados:
sh archivo.sh
ó
./archivo.sh
Optendremos los archivos de certificados el cual copiaremos los archivos a la ruta donde se instalo mkahawa-srv o mkahawa-client.
y listo no tendremos que usar la opcion -nossl la cual es insegura.
En la version de debian que use en los 2 primeros dvds de los 5 dvds se encuantran los siguentes paquetes:
- sqlite3
- libsqlite3-dev
- libfox-1.6
Los paquetes:
- libccls version: 0.8.0
- mkahawa-srv version: 0.8.2
- libcclc version: 0.0.4
- mkahawa-client version: 0.0.4
Deben buscarlos en internet estos estan disponibles para ubuntu solamente pero sirven para debian.
pero de todas maneras les dejo un regalito:
Si pulsan AQUI descargaran el tar.gz que los contiene solo tienes que desempaquetar y ya tendran los .deb que necesitan.
Para Concluir el ciber funciona bastante bien a pesar de usar equipos tan antioguos.
El ciber usa direcciones ip estaticas y el servidor se encarga a traves de una de sus interfaces red de conectar todos los equipos a este y trabaja como gateway para conectarse a internet a traves de su otra interfaz de red la cual usa una ip dinamica pero eso sera otra entrada que creare en el blog o posiblemente edite esta misma entrada.
Espero sus comentarios espero que les guste a todos.
Primero hice una busqueda de programas que me permitieran gestionar a los clientes desde un servidor encontre 2 opciones:
- cyborg
- mkahawa (el cual use este)
En dicho ciber tenia a mi disposición 19 equipos pentium 3 (cuestión que me puso algo nervioso por que son equipos con pocos recursos y muy antiguos) las caracteristicas de todos los equipos son:
----Clientes----
cpu: petium 3 450mhz
ram: 128mb
disco duro: 6gb
----Servidor----
cpu: petium 3 450mhz
ram: 384mb
disco duro: 6gb
Bueno aqui viene lo bueno ya que el entorno grafico que use fue gnome (por defecto en debian).
Y comence a formatear todos los clientes (los cuales tenian windows millenium) los cuales les hice una instalación estandar de debian.
Luego para configurar los clientes instale lo siguiente:
- sqlite3
- libsqlite3-dev
- libfox-1.6
- libcclc
- mkahawa-client
Al instalar mkahawa-client nos pedira el nombre del equipo y del cliente como el nombre del equipo le puse cliente1 lo use tanto para nombre del equipo y del cliente nos pedira la direccion ip del host no se coloca nada solo se pulsa enter
Para ejecutar el programa que bloquea los clientes debes ejecutar el siguiente comando:
mkahawa-client -host x.x.x.x -name cliente1 -nossl
en la opcion -host se especifica la ip del server que gestiona los clientes
la opcion -nossl nos permine ejecutar el programa sin usar una conexion segura luego explicare como hay que hacer para ejecutar la conexion segura.
Si la maquina se bloquea quiere decir que ya tenemos un cliente con mkahawa client funcional solo hay que aplicar el mismo proceso para los demas clientes.
Luego vamos a configurar el servidor instalando los siguentes paquetes:
- sqlite3
- libsqlite3-dev
- libfox-1.6
- libccls
- mkahawa-srv
En el servidor una ves instalados los paquetes solo tenemos que ejecutar el comando
mkahawa -nossl
Como generar los certificados para la conexión segura para no tener que usar la opcion -nossl.
Editor de texto solo tenemos que crear un archivo .sh con el siguiente codigo:
#!/bin/sh
echo "Generando certificados SSL/TLS"
PWD=`pwd`
TMPDIR="cert_tmp"
mkdir $TMPDIR
mkdir -p $TMPDIR/demoCA/private/
mkdir -p $TMPDIR/demoCA/newcerts
mkdir -p $TMPDIR/demoCA/certs
mkdir -p $TMPDIR/demoCA/crl
cd $TMPDIR
touch demoCA/index.txt
echo "01" > demoCA/serial
echo -n "generate self-signed CA ... "
echo -e ".\n.\n.\n.\n.\n`hostname`\n.\n" | \
openssl req -new -x509 -nodes \
-keyout demoCA/private/cakey.pem \
-out demoCA/cacert.pem -days 3650 2>/dev/null 1>&2
echo "done"
echo -n "generate certificate and sign request ... "
echo -e ".\n.\n.\n.\n.\nccl\n.\n\n\n" | \
openssl req -new -nodes \
-keyout key.pem -out newreq.pem \
-days 3650 2>/dev/null 1>&2
cat newreq.pem key.pem > new.pem
echo "done"
echo -n "sign certificate with newly created CA ... "
echo -e "y\ny\n" | openssl ca \
-policy policy_anything \
-out cert.pem -infiles new.pem 2>/dev/null 1>&2
sleep 2
echo "done"
cp demoCA/cacert.pem CAcert.pem
cp CAcert.pem ../CA.pem
cat key.pem cert.pem > ../cert.pem
cd $PWD
rm -rf $TMPDIR
echo -e "\n\nCopie cert.pem y CA.pem a ~/.mkahawa en el servidor y a ~/.mkahawa en los clientes\n"
Luego guardamos el archivo.
y desde la consola ejecutamos el archivo .sh de la siguente manera para que genere los certificados:
sh archivo.sh
ó
./archivo.sh
Optendremos los archivos de certificados el cual copiaremos los archivos a la ruta donde se instalo mkahawa-srv o mkahawa-client.
y listo no tendremos que usar la opcion -nossl la cual es insegura.
En la version de debian que use en los 2 primeros dvds de los 5 dvds se encuantran los siguentes paquetes:
- sqlite3
- libsqlite3-dev
- libfox-1.6
Los paquetes:
- libccls version: 0.8.0
- mkahawa-srv version: 0.8.2
- libcclc version: 0.0.4
- mkahawa-client version: 0.0.4
Deben buscarlos en internet estos estan disponibles para ubuntu solamente pero sirven para debian.
pero de todas maneras les dejo un regalito:
Si pulsan AQUI descargaran el tar.gz que los contiene solo tienes que desempaquetar y ya tendran los .deb que necesitan.
Para Concluir el ciber funciona bastante bien a pesar de usar equipos tan antioguos.
El ciber usa direcciones ip estaticas y el servidor se encarga a traves de una de sus interfaces red de conectar todos los equipos a este y trabaja como gateway para conectarse a internet a traves de su otra interfaz de red la cual usa una ip dinamica pero eso sera otra entrada que creare en el blog o posiblemente edite esta misma entrada.
Espero sus comentarios espero que les guste a todos.
Etiquetas:
¿Cómo se hace?
miércoles, 17 de noviembre de 2010
[Linux] El parche milagroso de Mike Galbraith en acción
En la página de Phoronix esta mañana leí un artículo sobre un “fascinante parche” para el kernel Linux que permite agregar “grupos de tareas” para una mejor respuesta del kernel ante eventos, haciendo que aplicaciones de escritorio sean agrupadas por TTY aumentando la interactividad del escritorio en alta carga.
La noticia fué replicada por la gente de muyLinux bajo el nombre de “El milagro de las 200 líneas de código” …
Para ser una prueba de concepto (sólo 200 líneas de código) se desempeña bastante bien.
http://anyhub.net/file/W_n-rfc-rft-v3-sched-automated-per-tty-task-groups.patch.tar.bz2
De donde lo pueden bajar limpio y sin inconvenientes.
He descargado el kernel 2.6.37-rc2 de la página de kernel.org, lo descomprimo para compilarlo “de la manera habitual”, sin embargo:
Ejecutamos:
En “General Setup”:
Kernel compression mode:
LZO (el más rápido en descomprimir) Para que el kernel se descomprima rápidamente pueden activar el modo de compresión LZO, pero requieren instalar el siguiente paquete:
Control Group Support (CONFIG_CGROUPS):
Namespace cgroup subsystemFreezer cgroup subsystemDevice Controller for cgroups
CPUset support > include legacy Precisamente la opción que incorpora el parche, los CGROUPS y su control.
Resource counters > Memory Resource controller > MRC for Swap Extension Group CPU Scheduler (CONFIG_CGROUP_SCHED)
Group Scheduling for SCHED_OTHER
Group Scheduling for SCHED_RR/FIFO Con esto, habilitamos todos los tipos de sheduler basado en grupos.
Block IO Controller
Default I/O scheduler
CFQ Opciones que colaboran con el parche.
Processor type and features > Preemption Model > Preemptible Kernel (low-latency desktop) Requerido, para que podamos contar con un kernel Preemtivo. (de baja latencia).
MTRR support > MTRR Cleanup support
Timer Frequency > 1000 Hz Otras opciones que colaboran con el performance del kernel Linux.
Como nota adicional, mi equipo es:
Linux lexotanil 2.6.37-rc2amd64 #2 SMP PREEMPT Tue Nov 16 16:32:42 VET 2010 x86_64 GNU/Linux Es un Debian Squeeze, tiene servicios cargados (openldap, postgresql, mysql) y utilidades de escritorio (compiz-fusion, gnome-applets, metacity como gestor, rendering habilitado según guía en este mismo blog) por lo que este parche *podría* en teoría, ser muchisimo más beneficioso para gente con equipos basados en distribuciones Desktop (Ubuntu, Trisquel), que mi equipo que es un servidor, sin embargo, el incremento de rendimiento fue brutal!.
A este equipo se le han realizado los siguientes cambios, con el fin de mejorar su performance:
Kernel genérico, sin 3D ni MTRR:
glxgears -info GL_RENDERER = Software Rasterizer GL_VERSION = 2.1 Mesa 7.7.1 GL_VENDOR = Mesa Project 1494 frames in 5.0 seconds = 298.796 FPS 1582 frames in 5.0 seconds = 316.213 FPS 1616 frames in 5.0 seconds = 323.090 FPS Los tiempos en promedio, son unos 300 FPS.
Kernel genérico, sin aceleración 3D (pero corrección MTRR activa):
glxgears -info GL_RENDERER = Software Rasterizer GL_VERSION = 2.1 Mesa 7.7.1 GL_VENDOR = Mesa Project 2277 frames in 5.0 seconds = 455.288FPS 2314 frames in 5.0 seconds = 462.779 FPS 2251 frames in 5.0 seconds = 450.191 FPS Mismo kernel, pero con el MTRR corregido (mejora del 10%).
Con aceleración 3D, sin parche de Mike:
glxgears -info GL_RENDERER = Mesa DRI Intel(R) 965GM GEM 20091221 2009Q4 GL_VERSION = 2.1 Mesa 7.7.1 GL_VENDOR = Tungsten Graphics, Inc 3618 frames in 5.0 seconds = 723.600 FPS 3448 frames in 5.0 seconds = 689.600 FPS 3511 frames in 5.0 seconds = 702.200 FPS Con 3D y MTRR corregido, el rendimiento en el kernel “genérico” es notable (promedio: 700 FPS).
Kernel con parche realtime (RT Linux): 2.6.33.7-rt29-amd64
GL_RENDERER = Mesa DRI Intel(R) 965GM GEM 20091221 2009Q4 GL_VERSION = 2.1 Mesa 7.7.1 GL_VENDOR = Tungsten Graphics, Inc 3418 frames in 5.0 seconds = 683.600 FPS 3483 frames in 5.0 seconds = 696.600 FPS 3498 frames in 5.0 seconds = 699.460 FPS Este Kernel (2.6.33-7 con parche RT de RT-Linux) lo uso para transmitir por radioGNU en modo tiempo-real.
Parche de Mike Galbraith; Kernel 2.6.37-rc2-amd64 con parche:
glxgears -info GL_RENDERER = Mesa DRI Intel(R) 965GM GEM 20091221 2009Q4 GL_VERSION = 2.1 Mesa 7.7.1 GL_VENDOR = Tungsten Graphics, Inc 5707 frames in 5.0 seconds = 1141.172 FPS 6153 frames in 5.0 seconds = 1230.600 FPS 6280 frames in 5.0 seconds = 1255.749 FPS Como vemos, este parche incrementa en más del 70% la respuesta del Kernel a eventos como dibujado de pantalla, scroll, renderizado de video, etc.
Conclusiones
Hice pruebas y benchmarks también con el interbench de Con Kolivas, que aunque confirman los resultados acá expuestos, sería muy largo explicar el test cuando un glxgears reportaría iguales resultados (una mejora notable en la respuesta del equipo).
Espero hagan sus propias pruebas y permitan dar por sentado que este parche representa el futuro del alto rendimiento en Linux PREEMPT para usuarios comunes y corrientes de escritorio.
Fuente: phenobarbital.wordpress.com
La noticia fué replicada por la gente de muyLinux bajo el nombre de “El milagro de las 200 líneas de código” …
El parche …
Este parche fué creado por Mike Galbraith, un eterno colaborador del Kernel Linux (nick: efault) y su finalidad principal es otorgar la posibilidad de “agrupar tareas” en las TTY para que el CPU pueda “procesar en lote” todo ese grupo de tareas de una manera más rápida, aprovechando el procesamiento “en paralelo” *casí* todas las tareas relativas al uso de escritorio (sobre todo en el rendering de video) se ven beneficiadas.¿Cómo funciona?
Cuando una tarea se ejecuta, esta genera un “GROUP” de manera automática donde todos los childs (hijos) comparten el “task group” y este un único tty. El parche de hecho es una “prueba de concepto” de una idea que Linus Torvalds había propuesto sobre el comportamiento de los task groups y queda abierta a mejoras de todo tipo.Para ser una prueba de concepto (sólo 200 líneas de código) se desempeña bastante bien.
¿Dónde y cómo implementarlo?
El parche aún se encuentra en pruebas y no ha sido empaquetado en ningún lado, se encuentra como respuesta a un correo de discusión de Linus Torvalds acá, y sólo puede ser implementado en kernels donde la gestión de carga de trabajo de las TTY existe (> 2.6.37), yo he descargado y copiado el parche acá:http://anyhub.net/file/W_n-rfc-rft-v3-sched-automated-per-tty-task-groups.patch.tar.bz2
De donde lo pueden bajar limpio y sin inconvenientes.
He descargado el kernel 2.6.37-rc2 de la página de kernel.org, lo descomprimo para compilarlo “de la manera habitual”, sin embargo:
Ejecutamos:
make mrproperY la copia de las opciones “por defecto”
make oldconfigAhora aplicaremos el kernel, para ello lo descomprimimos en la raíz de /usr/src, nos movemos a la carpeta del kernel:
cd linux-2.6.37-rc2/Y ejecutamos el parche:
patch -p1 --dry-run < ../RFC-RFT-v3-sched-automated-per-tty-task-groups.patch
Opciones habilitadas en el Kernel:
Ejecutando make menuconfig o make gconfig (si están en gnome) activaremos las siguientes opciones del Kernel Linux:En “General Setup”:
Kernel compression mode:
LZO (el más rápido en descomprimir) Para que el kernel se descomprima rápidamente pueden activar el modo de compresión LZO, pero requieren instalar el siguiente paquete:
aptitude install lzopEnable Block Layer > IO Schedulers > CFQ I/O Scheduler > CONFIG_CFQ_GROUP_IOSCHED Esto habilita el I/O scheduler por grupos (CFQ_GROUP_IOSCHED)
Control Group Support (CONFIG_CGROUPS):
Namespace cgroup subsystemFreezer cgroup subsystemDevice Controller for cgroups
CPUset support > include legacy Precisamente la opción que incorpora el parche, los CGROUPS y su control.
Resource counters > Memory Resource controller > MRC for Swap Extension Group CPU Scheduler (CONFIG_CGROUP_SCHED)
Group Scheduling for SCHED_OTHER
Group Scheduling for SCHED_RR/FIFO Con esto, habilitamos todos los tipos de sheduler basado en grupos.
Block IO Controller
Default I/O scheduler
CFQ Opciones que colaboran con el parche.
Processor type and features > Preemption Model > Preemptible Kernel (low-latency desktop) Requerido, para que podamos contar con un kernel Preemtivo. (de baja latencia).
MTRR support > MTRR Cleanup support
Timer Frequency > 1000 Hz Otras opciones que colaboran con el performance del kernel Linux.
Compilando
Compilamos de la manera usual:- make all
- make modules
- make modules install
- make install
- mkiniramfs -o /boot/initrd.img-2.6.37-rc2-amd64 /lib/modules/2.6.37-rc2-amd64
update-grub2y Listo, ahora, a probar el kernel.
Pruebas
Aun cuando hay pruebas más especializadas (como el interbench diseñado por Con Kolivas) yo he hecho una simple prueba (repetible por cualquiera) y que demuestra los beneficios directos del tunning; en este caso, he comprobado con 3 Kernel Linux y diversos modos.Como nota adicional, mi equipo es:
Linux lexotanil 2.6.37-rc2amd64 #2 SMP PREEMPT Tue Nov 16 16:32:42 VET 2010 x86_64 GNU/Linux Es un Debian Squeeze, tiene servicios cargados (openldap, postgresql, mysql) y utilidades de escritorio (compiz-fusion, gnome-applets, metacity como gestor, rendering habilitado según guía en este mismo blog) por lo que este parche *podría* en teoría, ser muchisimo más beneficioso para gente con equipos basados en distribuciones Desktop (Ubuntu, Trisquel), que mi equipo que es un servidor, sin embargo, el incremento de rendimiento fue brutal!.
A este equipo se le han realizado los siguientes cambios, con el fin de mejorar su performance:
- corrección del bug de MTRR
- Activación de la aceleración 3D y el direct-rendering de la Intel 965
- Re-configuración del Xorg para squeeze
Kernel genérico, sin 3D ni MTRR:
glxgears -info GL_RENDERER = Software Rasterizer GL_VERSION = 2.1 Mesa 7.7.1 GL_VENDOR = Mesa Project 1494 frames in 5.0 seconds = 298.796 FPS 1582 frames in 5.0 seconds = 316.213 FPS 1616 frames in 5.0 seconds = 323.090 FPS Los tiempos en promedio, son unos 300 FPS.
Kernel genérico, sin aceleración 3D (pero corrección MTRR activa):
glxgears -info GL_RENDERER = Software Rasterizer GL_VERSION = 2.1 Mesa 7.7.1 GL_VENDOR = Mesa Project 2277 frames in 5.0 seconds = 455.288FPS 2314 frames in 5.0 seconds = 462.779 FPS 2251 frames in 5.0 seconds = 450.191 FPS Mismo kernel, pero con el MTRR corregido (mejora del 10%).
Con aceleración 3D, sin parche de Mike:
glxgears -info GL_RENDERER = Mesa DRI Intel(R) 965GM GEM 20091221 2009Q4 GL_VERSION = 2.1 Mesa 7.7.1 GL_VENDOR = Tungsten Graphics, Inc 3618 frames in 5.0 seconds = 723.600 FPS 3448 frames in 5.0 seconds = 689.600 FPS 3511 frames in 5.0 seconds = 702.200 FPS Con 3D y MTRR corregido, el rendimiento en el kernel “genérico” es notable (promedio: 700 FPS).
Kernel con parche realtime (RT Linux): 2.6.33.7-rt29-amd64
GL_RENDERER = Mesa DRI Intel(R) 965GM GEM 20091221 2009Q4 GL_VERSION = 2.1 Mesa 7.7.1 GL_VENDOR = Tungsten Graphics, Inc 3418 frames in 5.0 seconds = 683.600 FPS 3483 frames in 5.0 seconds = 696.600 FPS 3498 frames in 5.0 seconds = 699.460 FPS Este Kernel (2.6.33-7 con parche RT de RT-Linux) lo uso para transmitir por radioGNU en modo tiempo-real.
Parche de Mike Galbraith; Kernel 2.6.37-rc2-amd64 con parche:
glxgears -info GL_RENDERER = Mesa DRI Intel(R) 965GM GEM 20091221 2009Q4 GL_VERSION = 2.1 Mesa 7.7.1 GL_VENDOR = Tungsten Graphics, Inc 5707 frames in 5.0 seconds = 1141.172 FPS 6153 frames in 5.0 seconds = 1230.600 FPS 6280 frames in 5.0 seconds = 1255.749 FPS Como vemos, este parche incrementa en más del 70% la respuesta del Kernel a eventos como dibujado de pantalla, scroll, renderizado de video, etc.
Conclusiones
Hice pruebas y benchmarks también con el interbench de Con Kolivas, que aunque confirman los resultados acá expuestos, sería muy largo explicar el test cuando un glxgears reportaría iguales resultados (una mejora notable en la respuesta del equipo).
Espero hagan sus propias pruebas y permitan dar por sentado que este parche representa el futuro del alto rendimiento en Linux PREEMPT para usuarios comunes y corrientes de escritorio.
Fuente: phenobarbital.wordpress.com
martes, 16 de noviembre de 2010
Actualización del kernel para SuSE Linux Enterprise 11
SuSE ha publicado la actualización del kernel para SuSE Linux Enterprise
Server y Desktop en su versión 11 SP1 en la que se corrigen tres
vulnerabilidades de escalada de privilegios.
Los problemas corregidos están relacionados con los sockets RDS y con
video4linux, en todos los casos podrían permitir a un atacante local la
obtención de privilegios de root.
Se recomienda actualizar a la última versión del kernel, disponible a
través de la herramienta automática YaST.
Opina sobre esta noticia:
http://www.hispasec.com/unaaldia/4403/comentar
Más información:
[security-announce] SUSE Security Announcement: Linux kernel (SUSE-SA:2010:057)
http://lists.opensuse.org/opensuse-security-announce/2010-11/msg00004.html
Antonio Ropero
antonior@hispasec.com
Fuente: urbanaradio.es
Server y Desktop en su versión 11 SP1 en la que se corrigen tres
vulnerabilidades de escalada de privilegios.
Los problemas corregidos están relacionados con los sockets RDS y con
video4linux, en todos los casos podrían permitir a un atacante local la
obtención de privilegios de root.
Se recomienda actualizar a la última versión del kernel, disponible a
través de la herramienta automática YaST.
Opina sobre esta noticia:
http://www.hispasec.com/unaaldia/4403/comentar
Más información:
[security-announce] SUSE Security Announcement: Linux kernel (SUSE-SA:2010:057)
http://lists.opensuse.org/opensuse-security-announce/2010-11/msg00004.html
Antonio Ropero
antonior@hispasec.com
Fuente: urbanaradio.es
domingo, 14 de noviembre de 2010
¿Que es freedesktop.org? wiki
freedesktop.org (fd.o) es un proyecto que trabaja por la interoperatibilidad y la compartición de la tecnología base de los entornos de escritorio para X Window System (X11), tanto en Linux como en otros sistemas operativos Unix. Fue fundado por Havoc Pennington en marzo de 2000.
La organización está enfocada al usuario. Hay muchos entornos de desarrollo para X11, lo cual no parece que vaya a cambiar. La organización procura que las diferencias entre entornos de desarrollo no sean visibles para el usuario.
Los dos escritorios X software libre más usados, GNOME y KDE, trabajan estrechamente en el proyecto.
Fuente: Wikipedia
La organización está enfocada al usuario. Hay muchos entornos de desarrollo para X11, lo cual no parece que vaya a cambiar. La organización procura que las diferencias entre entornos de desarrollo no sean visibles para el usuario.
Los dos escritorios X software libre más usados, GNOME y KDE, trabajan estrechamente en el proyecto.
Fuente: Wikipedia
Etiquetas:
Cita,
Definición
sábado, 13 de noviembre de 2010
¿Que es FFMPEG? Wiki
FFmpeg es una colección de software libre que puede grabar, convertir y hace streaming de audio y vídeo. Incluye libavcodec, una biblioteca de códecs. FFmpeg está desarrollado en GNU/Linux, pero puede ser compilado en la mayoría de los sistemas operativos, incluyendo Windows. El proyecto comenzó por Gerard Lantau, un seudónimo de Fabrice Bellard, y ahora es mantenido por Michael Niedermayer. Es destacable que la mayoría de los desarrolladores de FFmpeg lo sean también del proyecto MPlayer, más un miembro del proyecto Xine y que FFmpeg esté hospedado en el servidor del proyecto MPlayer.
FFmpeg está liberado bajo una licencia GNU Lesser General Public License 2.1+ o GNU General Public License 2+ (dependiendo de cuáles bibliotecas estén incluidas). Los desarrolladores recomiendan utilizar el último snapshot de Subversion ya que mantienen constantemente una versión estable.
Fuente: Wikipedia
FFmpeg está liberado bajo una licencia GNU Lesser General Public License 2.1+ o GNU General Public License 2+ (dependiendo de cuáles bibliotecas estén incluidas). Los desarrolladores recomiendan utilizar el último snapshot de Subversion ya que mantienen constantemente una versión estable.
Fuente: Wikipedia
Etiquetas:
Cita,
Definición
jueves, 11 de noviembre de 2010
Gestion hospitalaria con Medical
Medical es un sistema libre de Gestión Hospitalaria y de Información de salud que ofrece las siguientes funciones :
Nuestro objetivo es contribuir con los profesionales de la salud alrededor del mundo para mejorar la calidad de vida de los más necesitados, ofreciendo un sistema libre que optimice la promoción de la salud y la prevención de la enfermedad.
Fuente: medical.sourceforce
- Expediente Médico Electrónico (EMR)
- Sistema de Gestión Hospitalaria (HIS)
- Sistema de Información de Salud
Nuestro objetivo es contribuir con los profesionales de la salud alrededor del mundo para mejorar la calidad de vida de los más necesitados, ofreciendo un sistema libre que optimice la promoción de la salud y la prevención de la enfermedad.
Fuente: medical.sourceforce
¿Que es OpenERP?
Open ERP es un sistema ERP y CRM. Tiene componentes separados en esquema Cliente-servidor. Dispone de interfaces XML-RPC, y SOAP. Anteriormente se le conoció como TinyErp.
Entre sus características están la contabilidad analítica, contabilidad financiera, gestión de almacenes/inventario, gestión de ventas y compras, automatización de tareas, campañas de marketing, ayuda técnica(Helpdesk), y punto de venta, dentro de la construcción misma del software se hace uso intensivo de flujos de trabajo que se puede integrar con los módulos haciendo la modificación de aprobación y en general de cualquier proceso adaptable.
El programa es Software libre liberado bajo la GPL.
Es multiplataforma, funciona sobre Linux y Windows, y la interfaz de usuario está construida sobre Gtk+, también hay una alternativa construida sobre Qt. Adicionalmente hay un cliente para ambiente Web llamado Etiny que fue construido sobre TurboGears.
OpenERP se describe así mismo como el ERP de Código abierto más destacado y sencillo que existe hasta el momento.
Emplea a Postgresql como Sistema manejador de bases de datos y ha sido programado con Python, lo cual permite que su adecuación e implantación sea limpia y pueda tener una curva bastante menor que otras soluciones.
fuente: wikipedia
Entre sus características están la contabilidad analítica, contabilidad financiera, gestión de almacenes/inventario, gestión de ventas y compras, automatización de tareas, campañas de marketing, ayuda técnica(Helpdesk), y punto de venta, dentro de la construcción misma del software se hace uso intensivo de flujos de trabajo que se puede integrar con los módulos haciendo la modificación de aprobación y en general de cualquier proceso adaptable.
El programa es Software libre liberado bajo la GPL.
Es multiplataforma, funciona sobre Linux y Windows, y la interfaz de usuario está construida sobre Gtk+, también hay una alternativa construida sobre Qt. Adicionalmente hay un cliente para ambiente Web llamado Etiny que fue construido sobre TurboGears.
OpenERP se describe así mismo como el ERP de Código abierto más destacado y sencillo que existe hasta el momento.
Emplea a Postgresql como Sistema manejador de bases de datos y ha sido programado con Python, lo cual permite que su adecuación e implantación sea limpia y pueda tener una curva bastante menor que otras soluciones.
fuente: wikipedia
Etiquetas:
Cita,
Definición
miércoles, 10 de noviembre de 2010
Supercomputadoras de China elevarán ventaja competitiva
- Editor: Sonia
- 08:53:52 2010-11-09 / Xinhua
视频播放位置
下载安装Flash播放器
Los fabricantes chinos de computadoras de alto rendimiento se han visto alentados a mejorar su competitividad y a explotar un mercado internacional más amplio después de que un fabricante chino de supercomputadoras se situara recientemente por delante de Jaguar, compañía estadounidense pionera, en cuanto a velocidad de cálculo .
La Corporación de Industria de Información Dawning, fabricante chino de supercomputadoras, ha alcanzado una cuota de mercado del 34 por ciento en China, superando el 28 por ciento de IBM y el 19 por ciento de HP durante dos años consecutivos, de acuerdo con la Lista de las 100 Mejores Computadoras de Alto Rendimiento, recientemente publicada por la Asociación Especializada en Matemáticas y Ciencias de Software, dependiente de la Asociación de Industria de Semiconductor de China.
Nie Hua, vicepresidente de Dawning, informó a Xinhua hoy lunes de que "la lista muestra que el mercado nacional ha aceptado gradualmente las marcas de fabricación nacional de ordenadores de alto rendimiento".
"Además, nuestras computadoras de alto rendimiento tienen ahora una ventaja competitiva con respecto a las marcas de renombre internacional", dijo Nie.
La supercomputadora Dawning 6000 o Nebulae, cuya velocidad de computación supera los 1,270 billones de operaciones por segundo o 1,27 petaflops, ocupó el segundo lugar en la Lista de las 500 Supercomputadoras más potentes publicada el pasado mes de junio.
Se trata del mayor nivel alcanzado por un sistema informático chino. En la actualidad, dos sistemas chinos ocupan los puestos 10 y 24 en las lista de las 500 mejores computadoras, por detrás de EEUU, Reino Unido y Francia.
Las supercomputadoras se utilizan para tareas de cálculo intensivo en ámbitos como la física cuántica, predicción meteorológica, investigación climática y modelación molecular.
La industria de la supercomputadora se caracteriza por la rápida velocidad de desarrollo y el Dawning 6000 pronto será eclipsado por otra superordenadora desarrollada conjuntamente por la Universidad Nacional de Defensa y Tecnología y otros institutos de ciencias informáticas.
La velocidad de computación de la Tianhe-1 casi ha duplicado la del Dawning 6000, de acuerdo con la Lista de las 100 Mejores Computadoras de Alto Rendimiento 2010 de China.
Tianhe-1, que significa Vía Láctea, es capaz de efectuar 2,507 billones de operaciones por segundo, y de alcanzar los 4,700 billones en su punto máximo .
Su velocidad de cálculo es 1,425 veces mayor que la de Jaguar, la anterior supercomputadora más rápida de EEUU.
La superordenadora está instalada en el Centro Nacional de Supercomputación de la ciudad septentrional portuaria china de Tianjin.
Está previsto que desempeñe un papel importante en terrenos como la explotación de petróleo, la aviación y los estudios aeroespaciales.
Los expertos consideran que dada su impresionante velocidad de cálculo, el Tianhe-1 podría encabezar la siguiente Lista de las 500 Mejores Computadoras de Alto Rendimiento, que se publicará a mediados de noviembre en EEUU.
El anterior superordenador más rápido en la última Lista de las 100 Mejores Computadoras de Alto Rendimiento era el Jaguar, del Laboratorio Nacional Oak Ridge de Tennessee, con una velocidad media de 1,750 billones de cálculos por segundo.
En base a la última Lista de las 500 Mejores Computadoras de Alto Rendimiento, EEUU es hogar de siete de los 10 superordenadores más rápidos del mundo y posee más de la mitad de las 500 supercomputadoras. Fin
Fuente: spanish.china.org.cn
Sobre Radio ÑU.. (GNU)
RadioGNU (se pronuncia RadioÑÚ) es un espacio radial donde se difunden los valores del Software Libre. Es principalmente un medio para tecnólogos, pero acepta distintas manifestaciones científicas y culturales que sostienen la defensa de valores éticos al compartir el arte y el conocimiento.
Nuestra emisora continuamente genera un flujo de datos de audio en el cual podrá, desde su reproductor favorito, escuchar temas de distinta índole, todos orientados a compartir el conocimiento y muchas veces orientado al Software Libre, tal como es entendido en su definición oficial, sin interpretaciones intermedias.
Aunque tenemos nuestras opiniones sobre el Derecho de Autor, no promovemos el irrespeto de la ley. También promovemos el derecho que tienen los músicos de ser escuchados por su público. No cobramos por nuestra difusión (aunque aceptamos donativos y estamos dispuestos a hacer convenios para tal fin) y están invitados a informar sobre eventos como conciertos, festivales, congresos, foros, encuentros, fiestas y demás actividades, mientras las mismas no estén en contradicción con nuestros valores éticos.
RadioGNU nació como un espacio diverso y plural donde quien quiera puede transmitir sus ideas y su material auditivo. Sólo dos cosas se le piden a quien quiere formar parte: primero, que no se promuevan tecnologías privativas; segundo: que no se ponga reguetón, puesto que ya hay suficientes radios que ponen eso y lo que han puesto ya es suficiente para el resto de la humanidad.
Sea bienvenido a escuchar RadioGNU
Fuente: RadioÑU
Nuestra emisora continuamente genera un flujo de datos de audio en el cual podrá, desde su reproductor favorito, escuchar temas de distinta índole, todos orientados a compartir el conocimiento y muchas veces orientado al Software Libre, tal como es entendido en su definición oficial, sin interpretaciones intermedias.
Aunque tenemos nuestras opiniones sobre el Derecho de Autor, no promovemos el irrespeto de la ley. También promovemos el derecho que tienen los músicos de ser escuchados por su público. No cobramos por nuestra difusión (aunque aceptamos donativos y estamos dispuestos a hacer convenios para tal fin) y están invitados a informar sobre eventos como conciertos, festivales, congresos, foros, encuentros, fiestas y demás actividades, mientras las mismas no estén en contradicción con nuestros valores éticos.
RadioGNU nació como un espacio diverso y plural donde quien quiera puede transmitir sus ideas y su material auditivo. Sólo dos cosas se le piden a quien quiere formar parte: primero, que no se promuevan tecnologías privativas; segundo: que no se ponga reguetón, puesto que ya hay suficientes radios que ponen eso y lo que han puesto ya es suficiente para el resto de la humanidad.
Sea bienvenido a escuchar RadioGNU
Fuente: RadioÑU
Etiquetas:
Cita,
Definición
lunes, 8 de noviembre de 2010
OpenQbo: GNU/Linux para ROBOTS
OpenQbo es una distribución Linux para los robots basada en Ubuntu que incluye exclusivamente software y aplicaciones dirigidas a la robótica. El objetivo es crear una distro basada en Ubuntu que se puede utilizar en muchas plataformas robóticas actuales y futuras. Los creadores de la distro también esperan acelerar el desarrollo de la robótica en sí en el proceso.
OpenQbo Robotic Distro
OpenQbo es en muchos aspectos similar a la de Ubuntu Studio. Ambos son los derivados de Ubuntu en sintonía para hacer tareas específicas y están dirigidos a grupos específicos de personas. Otro ejemplo interesante es Ubuntu Satanic Edition. La idea original era crear una distro ligera basada en Ubuntu sin todos los servicios innecesarios y aplicaciones con el fin de optimizar el tiempo de partida al máximo y permitir su instalación en los discos duros y tarjetas de memoria fácil.
Aplicaciones predeterminadas en la distro OpenQbo robótica incluyen Gnome, el motor de síntesis de voz Festival, Julius motor de reconocimiento de voz, sistema de ROS como meta-SO y así sucesivamente. Puedes ver la lista completa de aplicaciones disponibles con OpenQbo aquí.
Fuente: es.globedia.com
Etiquetas:
Cita,
Definición
domingo, 7 de noviembre de 2010
Latinoware 2010 un gran acontecimiento del software libre para américa latina
Todo esta listo para que esta semana se lleve a cabo el VI Latinoware en Brasil, evento que congrega muchos activistas, desarrolladores y usuarios de software libre de america latina. Este evento acontecerá del 10 al 12 de Noviembre en la ciudad de Foz do Iguazú.
Keynotes alineados, programación concluida, conferencistas definidos. Ya están reunidos todos los motivos para estar en Foz do Iguaçu entre los días 10 y 13 de noviembre próximos. ¿Pero en qué consiste la construcción de un evento de esta envergadura? ¿Cuál ha sido el trabajo para llegar hasta aquí? "Es una observación constante de todo lo que está aconteciendo en el mundo de la tecnología, ¡en especial del software libre, claro! es ir manteniendo contactos y estableciendo otros nuevos contactos con potenciales conferencistas que voy conociendo en otros eventos de los cuales participo en el mundo entero. Principalmente, se trata de mantener los ojos y oídos abiertos a las sugerencias y, necesariamente - muchas veces desafortunadamente - tener que decir muchas veces 'no' según la visión de Cesar Brod que, por tercera vez, coordina el temario del Latinoware. Cesar es nuestro entrevistado hoy:
Latinoware: Cesar, ¿cómo comenzó tu historia con el Latinoware?
Cesar: Fue en 2003, cuando organicé el primer Congreso Internacional de Software Libre Brasil, en Curitiba. Allí conocí a Marcos Siríaco y Paulo Roberto Falcão, de Itaipu Binacional; a Julian Fagotti, de Celepar, y a una serie de personas que pensaban en organizar un gran evento latinoamericano de software libre. Yo estaba en el medio de un estudio que realizaba para el ministerio de apoyo al desarrollo de Finlandia, donde precisamente recababa lo que existía en materia de proyectos de software libre en América Latina y tenía muchos contactos con las mismas personas que formaban parte de mi estudio o que me ayudaban con el mismo. Buena parte de estas personas se tornaron conferencistas del primer Latinoware, en 2004.
Latinoware: Entre el Latinoware de 2004 y el de 2010, ¿Cuál es la principal diferencia en términos de organización del temario?
Cesar: Talvez la principal diferencia sea que en 2004 teníamos que buscar los conferencistas y en 2010 tenemos que seleccionar entre una inmensa oferta de personas que quieren venir al Latinoware, gracias a la importancia y a la visibilidad conquistadas por el evento. Sólo como ejemplo, tuvimos la oferta de 250 conferencias provenientes del llamado de trabajos, la mayoría de ellos de excelente calidad. Habíamos reservado el espacio para 20 y, al final, lo hemos abierto para casi 40 conferencias a partir de este llamado. Con esto, claro, tuvimos que negar una serie de propuestas. Se podrían hacer unos cinco Latinoware con todas las personas que se prepararon para participar. Sinceramente, espero que podamos dar espacio a todas ellas en eventos futuros y, públicamente, pido disculpas por no haber espacio para todas. En muchos momentos - creo que la mayoría de ellos - la selección entre A o B fue muy dolorosa. Fue como si tuviésemos que formar de nuevo a los Beatles y tener que elegir entre John Lennon y Paul McArtney...
Latinoware: ¿Y si tuvieras que elegir una entre las más de 150 conferencias del Latinoware?
Cesar: ¡Eso mismo! Después de tanto trabajo escogiendo quién estaría en nuestro temario, no hay una conferencia que me guste más que otra. Me gustaría pasar el tiempo entero en el taller de salud electrónica para países emergentes, pero al mismo tiempo no me quiero perder las conferencias sobre multimedia y las nuevas tecnologías para juegos y dispositivos móviles, además de acompañar la olimpíada de robótica.
También quiero oír todo lo que habrá en el evento sobre redes sociales, gobierno electrónico y, claro, accesibilidad. Y quiero leer de nuevo las evaluaciones y ver que es muy difícil para los participantes del congreso elegir entre una conferencia y otra. Fue así como tuvimos que seleccionarlas.
Latinoware: ¿Algún consejo para que los participantes no se pierdan en medio de tantas buenas actividades disponibles en el Latinoware?
Cesar: Doy dos recomendaciones. La primera es "enfoque". Si estás iniciándote en el mundo del software libre, reserva un tiempo para el mini curso Linux de la A a la Z y busca las conferencias más orientadas hacia aquello que tienes necesidad en el día a día: edición gráfica, producción de textos, etc. Si eres un programador PHP, Python, Java, etc., hay una serie de conferencias específicas sobre estos lenguajes. Si estás interesado en multimedia, el Latinoware aborda la producción de audio, vídeo, modelado 3D y muchas otras cosas. Si tu interés es el mundo de los negocios con software libre, no te pierdas las conferencias del personal del Gartner Group, los estudios de casos y las rondas de negocios. Si perteneces al área de la salud, sigue el taller internacional de salud para economías emergentes. En fin, mira la programación, selecciona tus conferencias preferidas y sigue tu propio camino. La segunda recomendación es "divertirse". La libertad es, ante todo, algo placentero. Deja un espacio para circular por el evento, visitar la feria y los stands, conversar con las personas, ¡y sacarse fotos con Maddog! Aprovecha que él no cobra. ¡Te esperamos en Foz do Iguaçu
Fuente: http://www.latinoware.org/
Keynotes alineados, programación concluida, conferencistas definidos. Ya están reunidos todos los motivos para estar en Foz do Iguaçu entre los días 10 y 13 de noviembre próximos. ¿Pero en qué consiste la construcción de un evento de esta envergadura? ¿Cuál ha sido el trabajo para llegar hasta aquí? "Es una observación constante de todo lo que está aconteciendo en el mundo de la tecnología, ¡en especial del software libre, claro! es ir manteniendo contactos y estableciendo otros nuevos contactos con potenciales conferencistas que voy conociendo en otros eventos de los cuales participo en el mundo entero. Principalmente, se trata de mantener los ojos y oídos abiertos a las sugerencias y, necesariamente - muchas veces desafortunadamente - tener que decir muchas veces 'no' según la visión de Cesar Brod que, por tercera vez, coordina el temario del Latinoware. Cesar es nuestro entrevistado hoy:
Latinoware: Cesar, ¿cómo comenzó tu historia con el Latinoware?
Cesar: Fue en 2003, cuando organicé el primer Congreso Internacional de Software Libre Brasil, en Curitiba. Allí conocí a Marcos Siríaco y Paulo Roberto Falcão, de Itaipu Binacional; a Julian Fagotti, de Celepar, y a una serie de personas que pensaban en organizar un gran evento latinoamericano de software libre. Yo estaba en el medio de un estudio que realizaba para el ministerio de apoyo al desarrollo de Finlandia, donde precisamente recababa lo que existía en materia de proyectos de software libre en América Latina y tenía muchos contactos con las mismas personas que formaban parte de mi estudio o que me ayudaban con el mismo. Buena parte de estas personas se tornaron conferencistas del primer Latinoware, en 2004.
Latinoware: Entre el Latinoware de 2004 y el de 2010, ¿Cuál es la principal diferencia en términos de organización del temario?
Cesar: Talvez la principal diferencia sea que en 2004 teníamos que buscar los conferencistas y en 2010 tenemos que seleccionar entre una inmensa oferta de personas que quieren venir al Latinoware, gracias a la importancia y a la visibilidad conquistadas por el evento. Sólo como ejemplo, tuvimos la oferta de 250 conferencias provenientes del llamado de trabajos, la mayoría de ellos de excelente calidad. Habíamos reservado el espacio para 20 y, al final, lo hemos abierto para casi 40 conferencias a partir de este llamado. Con esto, claro, tuvimos que negar una serie de propuestas. Se podrían hacer unos cinco Latinoware con todas las personas que se prepararon para participar. Sinceramente, espero que podamos dar espacio a todas ellas en eventos futuros y, públicamente, pido disculpas por no haber espacio para todas. En muchos momentos - creo que la mayoría de ellos - la selección entre A o B fue muy dolorosa. Fue como si tuviésemos que formar de nuevo a los Beatles y tener que elegir entre John Lennon y Paul McArtney...
Latinoware: ¿Y si tuvieras que elegir una entre las más de 150 conferencias del Latinoware?
Cesar: ¡Eso mismo! Después de tanto trabajo escogiendo quién estaría en nuestro temario, no hay una conferencia que me guste más que otra. Me gustaría pasar el tiempo entero en el taller de salud electrónica para países emergentes, pero al mismo tiempo no me quiero perder las conferencias sobre multimedia y las nuevas tecnologías para juegos y dispositivos móviles, además de acompañar la olimpíada de robótica.
También quiero oír todo lo que habrá en el evento sobre redes sociales, gobierno electrónico y, claro, accesibilidad. Y quiero leer de nuevo las evaluaciones y ver que es muy difícil para los participantes del congreso elegir entre una conferencia y otra. Fue así como tuvimos que seleccionarlas.
Latinoware: ¿Algún consejo para que los participantes no se pierdan en medio de tantas buenas actividades disponibles en el Latinoware?
Cesar: Doy dos recomendaciones. La primera es "enfoque". Si estás iniciándote en el mundo del software libre, reserva un tiempo para el mini curso Linux de la A a la Z y busca las conferencias más orientadas hacia aquello que tienes necesidad en el día a día: edición gráfica, producción de textos, etc. Si eres un programador PHP, Python, Java, etc., hay una serie de conferencias específicas sobre estos lenguajes. Si estás interesado en multimedia, el Latinoware aborda la producción de audio, vídeo, modelado 3D y muchas otras cosas. Si tu interés es el mundo de los negocios con software libre, no te pierdas las conferencias del personal del Gartner Group, los estudios de casos y las rondas de negocios. Si perteneces al área de la salud, sigue el taller internacional de salud para economías emergentes. En fin, mira la programación, selecciona tus conferencias preferidas y sigue tu propio camino. La segunda recomendación es "divertirse". La libertad es, ante todo, algo placentero. Deja un espacio para circular por el evento, visitar la feria y los stands, conversar con las personas, ¡y sacarse fotos con Maddog! Aprovecha que él no cobra. ¡Te esperamos en Foz do Iguaçu
Fuente: http://www.latinoware.org/
Liberado Blender 2.5 Beta 3
Después de más de 7 semanas de desarrollo, los desarrolladores Blender han anunciado la llegada de la última versión beta de lo que será la versión 2.6 de su suite de código abierto de creación de contenido 3D.
Blender 2.55 Beta, la tercera beta de la serie 2.5, incluye varios cambios y las correcciones de más de 340 bugs encontrados en la versión de desarrollo anterior. Aquí el anuncio.
Si bien no hay nuevas características se han añadido en el tercer beta, los desarrolladores cuentan que una "operación de cambio de nombre amplia" se ha producido entre las 2.53 y 2.55, cambiando sustancialmente la API de secuencias de comandos y que muy probablemente puede tener repercusiones para la carga de 2.53.
Mezcla con la animación en 2.55. Los Usuarios están invitados a probar el FCurve / controlador 2.54 fijar en el menú Ayuda en caso de que experimenta problemas. Además, los desarrolladores cuentan que los binarios de Linux de 64 bits están rotos, y añadió que "se volverá a cargar cuando se fija"
Al igual que con todas las versiones de desarrollo, el uso en entornos de producción y en sistemas de misión crítica no es aconsejable. Los desarrolladores piden a los usuarios comprobar la aptitud para el informe de cualquier error que encuentren. La fecha de lanzamiento de la versión final, con la etiqueta Blender 2.6, aún no se ha anunciado.
Más información en: http://www.blender.org/
Fuente: somoslibres
Blender 2.55 Beta, la tercera beta de la serie 2.5, incluye varios cambios y las correcciones de más de 340 bugs encontrados en la versión de desarrollo anterior. Aquí el anuncio.
Si bien no hay nuevas características se han añadido en el tercer beta, los desarrolladores cuentan que una "operación de cambio de nombre amplia" se ha producido entre las 2.53 y 2.55, cambiando sustancialmente la API de secuencias de comandos y que muy probablemente puede tener repercusiones para la carga de 2.53.
Mezcla con la animación en 2.55. Los Usuarios están invitados a probar el FCurve / controlador 2.54 fijar en el menú Ayuda en caso de que experimenta problemas. Además, los desarrolladores cuentan que los binarios de Linux de 64 bits están rotos, y añadió que "se volverá a cargar cuando se fija"
Al igual que con todas las versiones de desarrollo, el uso en entornos de producción y en sistemas de misión crítica no es aconsejable. Los desarrolladores piden a los usuarios comprobar la aptitud para el informe de cualquier error que encuentren. La fecha de lanzamiento de la versión final, con la etiqueta Blender 2.6, aún no se ha anunciado.
Más información en: http://www.blender.org/
Fuente: somoslibres
¿Como Entrar en modo root en una PC sin tener la Clave del mismo? Otra forma
Saludos a todos.
Esta Información les sera de mucha ayuda a muchas personas que no logran entrar en su sistema GNU/Linux ya que olvidaron la clave de su usuario root y usuario normal.
Bueno Lo primero es arrancar la maquina nos aparecerá el GRUB mostrando la lista de sistema operativos que queremos iniciar allí seleccionamos el sistema GNU/linux que no recordamos la clave "PERO OJO NO VAMOS A PULSAR ENTER" pulsaremos la tecla "e" que hace la referencia a "editar" Luego nos aparecerán una seria de opciones seleccionaremos la que al principio dice "kernel" y luego pulsamos la tecla "e" de nuevo en esa linea de código aparece al final "ro quiet" justo antes de "ro quiet" colocamos single quedando más o menos así la linea:
kernel /boot/vmlinuz-2.6.26-2-686 root=/dev/hda2 single ro quiet
Luego pulsamos la tecla "enter" y por ultimo la tecla "B" iniciara el sistema y nos mostrara el pront de super usuario simplemente ejecutamos el comando passwd cambiamos la clave del super usuario o del usuario que queremos cambiar la clave y listo... reiniciar con ctrl+alt+supr y ya hemos cambiado la clave.
En algunos casos al ejecutar passwd no se cambia la contraseña en esos casos ejecutar antes de passwd el siguiente comando:
mount -n -o remount,rw /
Espero que les sirva a muchos a mi me ha pasado y esta es la solución más simple cuando no hay un cifrado de los datos en las particiones.
Esta Información les sera de mucha ayuda a muchas personas que no logran entrar en su sistema GNU/Linux ya que olvidaron la clave de su usuario root y usuario normal.
Bueno Lo primero es arrancar la maquina nos aparecerá el GRUB mostrando la lista de sistema operativos que queremos iniciar allí seleccionamos el sistema GNU/linux que no recordamos la clave "PERO OJO NO VAMOS A PULSAR ENTER" pulsaremos la tecla "e" que hace la referencia a "editar" Luego nos aparecerán una seria de opciones seleccionaremos la que al principio dice "kernel" y luego pulsamos la tecla "e" de nuevo en esa linea de código aparece al final "ro quiet" justo antes de "ro quiet" colocamos single quedando más o menos así la linea:
kernel /boot/vmlinuz-2.6.26-2-686 root=/dev/hda2 single ro quiet
Luego pulsamos la tecla "enter" y por ultimo la tecla "B" iniciara el sistema y nos mostrara el pront de super usuario simplemente ejecutamos el comando passwd cambiamos la clave del super usuario o del usuario que queremos cambiar la clave y listo... reiniciar con ctrl+alt+supr y ya hemos cambiado la clave.
En algunos casos al ejecutar passwd no se cambia la contraseña en esos casos ejecutar antes de passwd el siguiente comando:
mount -n -o remount,rw /
Espero que les sirva a muchos a mi me ha pasado y esta es la solución más simple cuando no hay un cifrado de los datos en las particiones.
Etiquetas:
¿Cómo se hace?
viernes, 5 de noviembre de 2010
Instalar JDownloader en linux
Todos Conocemos Este Programa Es un gestor de Descargas para paginas de publicación de archivos en internet que usan conexiones especiales para la descarga del archivo este programa nos permite descargar múltiples archivos y gestionar las descargas de estos.
Prerrequisitos para su instalación:
1. Tener instalado java.
Pasos para instalar JDownloader en Linux son:
1. Descargamos el archivo jd.sh
2. Abrimos una Terminal y nos dirijimos al lugar de descarga.
3. Ejecutamos:
chmod +x sh.sh
./jd.sh
Esto iniciará el instalador de JDonwloader para nuestra distribución de GNU/Linux ejecutándose en nuestro PC luego simplemente terminada la instalación y podremos usar el programa.
Prerrequisitos para su instalación:
1. Tener instalado java.
Pasos para instalar JDownloader en Linux son:
1. Descargamos el archivo jd.sh
2. Abrimos una Terminal y nos dirijimos al lugar de descarga.
3. Ejecutamos:
chmod +x sh.sh
./jd.sh
Esto iniciará el instalador de JDonwloader para nuestra distribución de GNU/Linux ejecutándose en nuestro PC luego simplemente terminada la instalación y podremos usar el programa.
Etiquetas:
¿Cómo se hace?
jueves, 4 de noviembre de 2010
Omnet: Un simulador de redes y telecomunicaciones orientado a objetos
Hoy en dia existen todo tipo de simuladores que nos ayudan a estudiar en un ambiente virtual las diferentes tecnologias de red, sin gastar dinero, ni preocuparnos por dañar algun equipo. Anteriormente en Rinconinformatico hemos hablado del NCTUNS, hoy es el turno para Omnet un simulador de redes, facil de instalar, multiplataforma y ampliamente documentado en la red.
¿Que es omnet? segun la wiki:
Fuente: rinconinformatico
¿Que es omnet? segun la wiki:
OMNeT++ es un simulador modular de eventos discretos de redes orientado a objetos, usado habitualmente para modelar el tráfico de redes de telecomunicaciones, protocolos, sistemas multiprocesadores y distribuidos, validación de arquitecturas hardware, evaluación del rendimiento de sistemas software y, en general, modelar cualquier sistema que pueda simularse con eventos discretos.Antes de empezar con la instalacion debemos asegurarnos de tener estas dependencias instaladas:
Esta herramienta esta disponible tanto para sistemas operativos basados en UNIX como para Windows y se distribuye bajo la Licencia Pública Académica. Su versión comercial, denominada OMNEST, es desarrollada actualmente por Simulcraft Inc
- GCC
- JAVA
- TCL
- AKAROA
- PCAP
- g++
- bison
- flex
- perl
- blt
- libxml2-dev
- zlib1g-dev
- doxygen
- graphviz
- openmpi-bin
- libopenmpi-dev
- libpcap-dev
apt-get install build-essential gcc g++ bison flex perl tcl-dev tk-dev blt libxml2-dev zlib1g-dev openjdk-6-jre doxygen graphviz openmpi-bin libopenmpi-dev libpcap-devAhora estamos listos para iniciar el proceso de instalacion, este es bastante sencillo (aunque lleva un poco de tiempo). Debemos seguir los siguientes pasos:
- Descargamos las fuentes de Omnet desde este enlace
- Extraemos el archivo de esta forma:
- Agregamos las variables de entorno a nuestro bashrc:
- Ahora realizamos los pasos para compilar cualquier aplicacion desde las fuentes:
- Despues de una espera de alrededor de 10 minutos, ejecutamos la aplicacion:
tar xvfz omnetpp-4.1-src.tgz
nano ~/.bashrc
export PATH=$PATH:/home/epsilon/Desktop/omnetpp-4.1/bin
export TCL_LIBRARY=/usr/share/tcltk/tcl8.4
cd omnetpp-4.1
./configure
make
make install
omnetpp
Fuente: rinconinformatico
Etiquetas:
Cita,
Definición
Estudiantes y profesores impulsan Canaima GNU/Linux en universidades
Caracas, 04 Nov. AVN .- Estudiantes y profesores, activistas del Software Libre, de más de siete regiones del país se unieron para promover el desarrollo de la Metadistribución GNU/Linux Canaima en el sector universitario.
Esta agrupación, cuya misión es compartir conocimientos, experiencias, planes y proyectos tecnológicos para la formación de profesionales integrales se denomina Canaima Universitario.
Esta iniciativa es resultado de una propuesta presentada en la Tercera Cayapa Canaima, realizada en abril pasado.
En la cuarta edición de este evento colaborativo, se presentó como una comunidad conformada por más de 50 personas unidas por su interés en el Software Libre en Venezuela, en especial por el uso, estudio, divulgación y soporte de Canaima GNU/Linux.
"Desde este colectivo estamos ensayando modelos organizacionales, donde el trabajo colaborativo sea redefinido en función de diversos factores tecnológicos y socio-políticos. Buscamos fomentar aportes en los diversos sectores nacionales, con los que esperamos aumentar el espíritu de participación en todas las instituciones de educación superior del país", afirmó María Alejandra Dugarte, una de las fundadoras del proyecto.
Por su parte, Luis Márquez, otro de los responsables de la propuesta, afirmó que Canaima Universitario forma parte de la Comunidad Canaima.
“Queremos fortalecerla y promoverla en el ámbito académico, donde incentivaremos la apropiación y sentido de pertenencia en todos los niveles de ese proyecto tan importante para la independencia tecnológica nacional”, refirió.
Este proyecto busca sumar esfuerzos en la consolidación de una comunidad de desarrollo, mantenimiento y soporte de la Metadistribución nacional, en el impulso de nuevas formas organizativas y métodos de trabajo comunitario y colectivo, así como en la generación de otros espacios de inclusión y comunicación directa de colaboradores, desarrolladores y usuarios.
“Ya los estudiantes no estamos sólo en las aulas, somos actores fundamentales, protagonistas, del desarrollo de Venezuela y estamos potenciando las capacidades nacionales desde la base. La invitación es para que más estudiantes y profesores se sumen a esta propuesta de desarrollo endógeno y repliquen la experiencia en todas las instituciones de educación superior”, destaca Javier León, activista del Software Libre.
Fuente: AVN
Esta agrupación, cuya misión es compartir conocimientos, experiencias, planes y proyectos tecnológicos para la formación de profesionales integrales se denomina Canaima Universitario.
Esta iniciativa es resultado de una propuesta presentada en la Tercera Cayapa Canaima, realizada en abril pasado.
En la cuarta edición de este evento colaborativo, se presentó como una comunidad conformada por más de 50 personas unidas por su interés en el Software Libre en Venezuela, en especial por el uso, estudio, divulgación y soporte de Canaima GNU/Linux.
"Desde este colectivo estamos ensayando modelos organizacionales, donde el trabajo colaborativo sea redefinido en función de diversos factores tecnológicos y socio-políticos. Buscamos fomentar aportes en los diversos sectores nacionales, con los que esperamos aumentar el espíritu de participación en todas las instituciones de educación superior del país", afirmó María Alejandra Dugarte, una de las fundadoras del proyecto.
Por su parte, Luis Márquez, otro de los responsables de la propuesta, afirmó que Canaima Universitario forma parte de la Comunidad Canaima.
“Queremos fortalecerla y promoverla en el ámbito académico, donde incentivaremos la apropiación y sentido de pertenencia en todos los niveles de ese proyecto tan importante para la independencia tecnológica nacional”, refirió.
Este proyecto busca sumar esfuerzos en la consolidación de una comunidad de desarrollo, mantenimiento y soporte de la Metadistribución nacional, en el impulso de nuevas formas organizativas y métodos de trabajo comunitario y colectivo, así como en la generación de otros espacios de inclusión y comunicación directa de colaboradores, desarrolladores y usuarios.
“Ya los estudiantes no estamos sólo en las aulas, somos actores fundamentales, protagonistas, del desarrollo de Venezuela y estamos potenciando las capacidades nacionales desde la base. La invitación es para que más estudiantes y profesores se sumen a esta propuesta de desarrollo endógeno y repliquen la experiencia en todas las instituciones de educación superior”, destaca Javier León, activista del Software Libre.
Fuente: AVN
miércoles, 3 de noviembre de 2010
WICD-CURSES: Como conectarse a una red inalambrica desde la consola
Muchas veces, por una u otra razon, nos quedamos sin entorno grafico y necesitamos conectarnos a una red inalambrica, para realizar esto hay varias formas: La mas sencilla es buscar un AP sin seguridad ( es decir libre) y conectarnos con las siguientes lineas:
Para conectarse a este tipo de redes desde la consola, es un poco mas complejo, ya que se requiere manejar, entender y configurar de forma manual una aplicacion denominada wpa_supplicant. Sin embargo, existe una aplicacion, bastante agradable derivada del gestor de redes “WICD” (el cual muchos ya conocemos), llamads WICD-CURSES. Dicha aplicacion, se puede definir como el wicd para la consola, ya que su uso es muy similar al wicd.
Para instalarlo, lo descargamos de los repositorios:
iwconfig wlan0 essid nombreredHasta ahi, todo muy sencillo, pero ¿que pasa con aquellas redes inalambrica las cuales tengan seguridad habilitada( ya sea WEP, WPA, WPA2)?
dhclient wlan0
Para conectarse a este tipo de redes desde la consola, es un poco mas complejo, ya que se requiere manejar, entender y configurar de forma manual una aplicacion denominada wpa_supplicant. Sin embargo, existe una aplicacion, bastante agradable derivada del gestor de redes “WICD” (el cual muchos ya conocemos), llamads WICD-CURSES. Dicha aplicacion, se puede definir como el wicd para la consola, ya que su uso es muy similar al wicd.
Para instalarlo, lo descargamos de los repositorios:
apt-get install wicd-cursesUna vez instalado, lo ejecutamos y veremos algo similar a esto:
Este primer pantallazo nos muestra las redes detectadas por nuestra tarjeta, en la parte inferior, observarmos un menu, el cual nos muestra las diferentes opciones. Si hay redes libres, solo basta con seleccionar la red y presionar la tecla C. Por otra parte, si existen redes como en este caso, con seguridad habilitada, debemos situarnos en la red que nos deseemos conectar, y presionar la tecla -> (la flecha derecha). Alli nos mostrara otro menu, en el cual podemos seleccionar el protocolo de seguridad, y ingresar la clave.
Igualmente en este menu, aparte de ingresar la clave de seguridad, podemos configurar la red, es decir, si nuestro AP o Router no maneja DHCP, desde alli asignamos IP y DNS estaticos.
Como ven es un cliente muy similar al cliente grafico, se maneja y funciona de la misma forma, y es muy util para aquellos casos en los cuales, no tengamos interfaz grafica, y deseamos conectarnos a una red WIFI.
Fuente: rinconinformatico
Etiquetas:
¿Cómo se hace?,
Cita
LibreOffice, ¿libre de usuarios?
Continúa la estampida de desarrolladores que abandonan la comunidad OpenOffice.org, esta semana otros 33 se suman a la lista de los que se alejan de Oracle, quien es el principal patrocinador y dueño del nombre comercial de la suite de oficina abierta más popular. Esta separación trae consigo implicaciones que van mucho más allá de la simple separación de lo propietario y lo libre, como por ejemplo, puede significar el adiós definitivo de Linux en el escritorio empresarial.
La cadena de sucesos que hoy dividen a la comunidad de desarrollo es como sigue. Después comprar a Sun Microsystems, OpenOffice.org pasó a ser propiedad de Oracle de la misma forma que otros muchos productos. Ante el temor de que la suite de oficina se transformara en un producto comercial de código cerrado, el mes pasado varios miembros importantes de la comunidad OpenOffice.org decidieron formar “The Documents Foundation” y crear un fork del proyecto de desarrollo al que denominaron LibreOffice. Luego invitaron a Oracle a sumarse a la fundación y a donar la marca comercial OpenOffice.org, lo que fue rechazado por la empresa y más aún, pidió a los miembros de la fundación abandonar OpenOffice.org argumentando conflictos de interés.
Y así, poco a poco han ido abandonando el proyecto miembros importantes de la comunidad, y esta llegó el éxodo masivo al renunciar otros 33 desarrolladores, que hoy se integran a The Documents Foundation para continuar con la evolución de LibreOffice.
Cabe señalar que LibreOffice se ha ganado en este breve tiempo el apoyo de varias compañías como Google, Red Hat, Canonical, Novell y Ubuntu, este último al anunciar que futuras versiones de su distribución reemplazarán OpenOffice por la nueva versión libre.
Sin embargo, ahora tenemos una comunidad de desarrollo desconcertada y dividida, que tardará tiempo en volver a tomar forma. Tiempo que puede resultar fatal ante la vertiginosa evolución tecnológica orientada al software como servicio y al internet como medio para entregar aplicaciones.
Y como lo comentamos al inicio de este espacio, puede representar el adiós definitivo de Linux en el escritorio, ya que la ausencia de una suite de oficina competitiva, eficiente y amigable es tal vez la principal y única causa por la cual no ha sido aceptado. Por más que la plataforma del pingüino haya evolucionado a interfaces gráficos con efectos espectaculares, sumamente ligeros, seguros, libres de virus, y que pueden utilizarse sin recurrir a la consola de comandos, todo pierde sentido al carecer de una suite de trabajo que permita a usuario acelerar sus resultados.
LibreOffice llegó para quedarse, o para quedarse sin usuarios y despedir a Linux del escritorio. La forma y fuerza que tome The Documents Foundation será el factor que incline la balanza en uno de los sentidos
ljoannis@netx.com.mx
Fuente: impreso.milenio.com
Y así, poco a poco han ido abandonando el proyecto miembros importantes de la comunidad, y esta llegó el éxodo masivo al renunciar otros 33 desarrolladores, que hoy se integran a The Documents Foundation para continuar con la evolución de LibreOffice.
Cabe señalar que LibreOffice se ha ganado en este breve tiempo el apoyo de varias compañías como Google, Red Hat, Canonical, Novell y Ubuntu, este último al anunciar que futuras versiones de su distribución reemplazarán OpenOffice por la nueva versión libre.
Sin embargo, ahora tenemos una comunidad de desarrollo desconcertada y dividida, que tardará tiempo en volver a tomar forma. Tiempo que puede resultar fatal ante la vertiginosa evolución tecnológica orientada al software como servicio y al internet como medio para entregar aplicaciones.
Y como lo comentamos al inicio de este espacio, puede representar el adiós definitivo de Linux en el escritorio, ya que la ausencia de una suite de oficina competitiva, eficiente y amigable es tal vez la principal y única causa por la cual no ha sido aceptado. Por más que la plataforma del pingüino haya evolucionado a interfaces gráficos con efectos espectaculares, sumamente ligeros, seguros, libres de virus, y que pueden utilizarse sin recurrir a la consola de comandos, todo pierde sentido al carecer de una suite de trabajo que permita a usuario acelerar sus resultados.
LibreOffice llegó para quedarse, o para quedarse sin usuarios y despedir a Linux del escritorio. La forma y fuerza que tome The Documents Foundation será el factor que incline la balanza en uno de los sentidos
ljoannis@netx.com.mx
Fuente: impreso.milenio.com
martes, 2 de noviembre de 2010
Usando una imagen ISO como repositorio en Debian
Es una pregunta que ya me había hecho hace tiempo, si era posible usar una imagen iso como repositorio y no tener que estar usando los CD’s/DVD’s (Algo muchas veces molesto, más si se trata de CD’s).
Pues bueno las ventajas que presenta usar las imágenes iso son bastante claras, ya que no tendremos la necesidad de estar insertando y sacando los CD’s/DVD’s de la unidad, a demás de ahorrarnos unos cuantos CD’s/DVD’s.
Preparando lo necesario
- Necesitamos un directorio por cada CD’s/DVD’s. Podríamos crear una directorio llamado ‘repositorio‘ en /media que contenga a los demás.
En mi caso: /media/repositorio-isos
Modificando el archivo fstab
Ejemplo:
Ahora para que apt use las imágenes como repositorio debemos indicar en este archivo donde esta montado cada CD’s/DVD’s de nuestro repositorio.
Ejemplo:
Compartir este repositorio para toda la red local
Este punto ofrece una utilidad enorme, imagínate actualizar todos los computadores de una red local a través de un solo computador que actúe como servidor del repositorio. Pues es muy sencillo:
Supongamos que con los pasos de arriba configuramos el repositorio y que ese computador será el servidor.
Ip: 192.168.1.1
Nota: Debemos tener configurado un servidor Apache.
En el servidor
Aquí crearemos enlaces simbólicos a cada uno de los directorios en donde se encuentran montadas las imágenes iso. Esto lo hacemos en el directorio /var/www de Apache.
En los clientes
En cada uno de los clientes debemos modificar el archivo /etc/fstab
Ejemplo
Fuente: rinconinformatico
Pues bueno las ventajas que presenta usar las imágenes iso son bastante claras, ya que no tendremos la necesidad de estar insertando y sacando los CD’s/DVD’s de la unidad, a demás de ahorrarnos unos cuantos CD’s/DVD’s.
Preparando lo necesario
- Necesitamos un directorio por cada CD’s/DVD’s. Podríamos crear una directorio llamado ‘repositorio‘ en /media que contenga a los demás.
# mkdir /media/repositorioAhora dentro de ‘repositorio’ creamos el resto de carpetas donde serán montadas las imágenes iso.
# mkdir /media/repositorio/[CD1 o DVD1]En mi caso los directorios quedarían así:
# mkdir /media/repositorio/[CD2 o DVD2]
…
# mkdir /media/repositorio/[CDn o DVDn]
# ls /media/repositorio- Debemos conocer la ubicación de las imágenes iso (La ubicación realmente no importa).
cd1 cd2 cd3 cd4 cd5 cd6 cd7 cd8
En mi caso: /media/repositorio-isos
Modificando el archivo fstab
#vim /etc/fstabAl final del archivo añadimos los siguiente:
/media/RUTA/IMAGEN1.iso /media/repositorio/[CD1 o DVD1] iso9660 loop,user,auto 0 0Para cada imagen debe haber una línea como esta indicando respectivamente la imagen iso y el directorio donde será montada.
Ejemplo:
#Repositorio imagenes-iso /media/repositorio-isos/debian-testing-i386-CD-1.iso /media/repositorio/cd1 iso9660 loop,user,auto 0 0 /media/repositorio-isos/debian-testing-i386-CD-2.iso /media/repositorio/cd2 iso9660 loop,user,auto 0 0 /media/repositorio-isos/debian-testing-i386-CD-3.iso /media/repositorio/cd3 iso9660 loop,user,auto 0 0 /media/repositorio-isos/debian-testing-i386-CD-4.iso /media/repositorio/cd4 iso9660 loop,user,auto 0 0 /media/repositorio-isos/debian-testing-i386-CD-5.iso /media/repositorio/cd5 iso9660 loop,user,auto 0 0 /media/repositorio-isos/debian-testing-i386-CD-6.iso /media/repositorio/cd6 iso9660 loop,user,auto 0 0 /media/repositorio-isos/debian-testing-i386-CD-7.iso /media/repositorio/cd7 iso9660 loop,user,auto 0 0 /media/repositorio-isos/debian-testing-i386-CD-8.iso /media/repositorio/cd8 iso9660 loop,user,auto 0 0Modificando el archivo sources.list
Ahora para que apt use las imágenes como repositorio debemos indicar en este archivo donde esta montado cada CD’s/DVD’s de nuestro repositorio.
# vim /etc/apt/sources.listAgregamos lo siguiente:
deb file:///media/repositorio/[CD1 o DVD1] squeeze main contribCambia ‘squeeze’ por la versión de Debian que uses.
Ejemplo:
#Repositorio imagenes-iso deb file:///media/repositorio/cd1 squeeze main contrib deb file:///media/repositorio/cd2 squeeze main contrib deb file:///media/repositorio/cd3 squeeze main contrib deb file:///media/repositorio/cd4 squeeze main contrib deb file:///media/repositorio/cd5 squeeze main contrib deb file:///media/repositorio/cd6 squeeze main contrib deb file:///media/repositorio/cd7 squeeze main contrib deb file:///media/repositorio/cd8 squeeze main contrib ##ENDSi no lo has hecho debes montar las imágenes:
# mount -aY por último:
# aptitude updateA mí me han aparecido varios errores como este, después de actualizar los repositorios:
Err file: squeeze/contrib PackagesPero esto no perjudica el funcionamiento correcto de el repositorio.
Fichero no encontrado
Compartir este repositorio para toda la red local
Este punto ofrece una utilidad enorme, imagínate actualizar todos los computadores de una red local a través de un solo computador que actúe como servidor del repositorio. Pues es muy sencillo:
Supongamos que con los pasos de arriba configuramos el repositorio y que ese computador será el servidor.
Ip: 192.168.1.1
Nota: Debemos tener configurado un servidor Apache.
En el servidor
Aquí crearemos enlaces simbólicos a cada uno de los directorios en donde se encuentran montadas las imágenes iso. Esto lo hacemos en el directorio /var/www de Apache.
#cd /var/wwwCambias si es necesario la ruta del directorio por la tuya.
/var/www# ln -s /media/repositorio/cd1Recuerda un enlace por cada directorio.
/var/www# ln -s /media/repositorio/cd2
…
En los clientes
En cada uno de los clientes debemos modificar el archivo /etc/fstab
#vim /etc/fstabAgregamos por cada enlace simbólico una línea como esta:
deb http://192.168.1.1/[NOMBRE_ENLACE] squeeze main contribComo puedes ver accedemos al repositorio con la ip del servidor y el nombre del enlace simbólico que apunta a cada una de los directorios donde montamos las imágenes.
Ejemplo
deb http://192.168.1.1/cd1 squeeze main contrib deb http://192.168.1.1/cd2 squeeze main contrib deb http://192.168.1.1/cd3 squeeze main contrib
Actualizamos repositorios y listo . Hasta la próxima!!
Fuente: rinconinformatico
Etiquetas:
¿Cómo se hace?,
Cita
MeeGo lanza la versión 1.1 de su Linux en todas sus variantes
Disponible desde ya la descarga para netbooks, smartphones, sistemas IVI, y la plataforma de referencia en su nueva revisión. De entre lo más destacable, la disponibilidad de una versión para el Nokia N900 aún cuando el fabricante finlandés afirmó que no se podría actualizar dicho terminal.
Guillem Alsina (guillem@imatica.org) – MeeGo sigue avanzando pese a no tener en el mercado un solo dispositivo que lo utilice como sistema operativo por defecto. Parece ser que la estrategia de mercado de Nokia e Intel (a la sazón, padres de la criatura) es primero madurar laplataforma para lanzar más adelante los dispositivos. Buena prueba de ello es que, contradiciendo lo que la misma Nokia había indicado con anterioridad, el N900 podrá ejecutar el sistema, aunque no será actualizable desde Maemo, si no que va a ser necesario realizar un poco de trabajo para configurar un arranque dual. Pero la posibilidad va a existir.
La principal novedad de esta nueva revisión 1.1 de MeeGo se encuentra, precisamente, en el área de los smartphones, en la cual laplataforma ha incluido por fin la interfaz de usuario especialmente diseñada para este proyecto. Pese a que esta no está aún finalizada, sí tiene lo suficiente para ser utilizable en un teléfono, como la gestión de llamadas, envío y recepción de SMS, o funciones más avanzadas como navegación por la web o reproducción de música.
Está previsto que la interfaz de usuario para smartphones sea finalizada para su inclusión en la próxima actualización, la versión 1.2 .
La descarga para el N900 viene acompañada de las instrucciones para flashear una tarjeta microSD y poder utilizar así la plataforma. Tales instrucciones se entregan librando al proyecto MeeGo de cualquier responsabilidad por lo que pueda ocurrirle al terminal de Nokia.
Copyleft 2010 www.imatica.org
Esta obra se encuentra sujeta a la siguiente licencia:
La difusión, reproducción y traducción de este texto se permite libremente en cualquier medio o soporte con las únicas obligaciones de mantener la presente licencia e incluir un enlace o referencia a la página en la que se encuentra el original dentro del servidor www.imatica.org . En medios audiovisuales se requiere la cita al medio www.imatica.org
Fuente: imatica
Guillem Alsina (guillem@imatica.org) – MeeGo sigue avanzando pese a no tener en el mercado un solo dispositivo que lo utilice como sistema operativo por defecto. Parece ser que la estrategia de mercado de Nokia e Intel (a la sazón, padres de la criatura) es primero madurar laplataforma para lanzar más adelante los dispositivos. Buena prueba de ello es que, contradiciendo lo que la misma Nokia había indicado con anterioridad, el N900 podrá ejecutar el sistema, aunque no será actualizable desde Maemo, si no que va a ser necesario realizar un poco de trabajo para configurar un arranque dual. Pero la posibilidad va a existir.
La principal novedad de esta nueva revisión 1.1 de MeeGo se encuentra, precisamente, en el área de los smartphones, en la cual laplataforma ha incluido por fin la interfaz de usuario especialmente diseñada para este proyecto. Pese a que esta no está aún finalizada, sí tiene lo suficiente para ser utilizable en un teléfono, como la gestión de llamadas, envío y recepción de SMS, o funciones más avanzadas como navegación por la web o reproducción de música.
Está previsto que la interfaz de usuario para smartphones sea finalizada para su inclusión en la próxima actualización, la versión 1.2 .
La descarga para el N900 viene acompañada de las instrucciones para flashear una tarjeta microSD y poder utilizar así la plataforma. Tales instrucciones se entregan librando al proyecto MeeGo de cualquier responsabilidad por lo que pueda ocurrirle al terminal de Nokia.
Copyleft 2010 www.imatica.org
Esta obra se encuentra sujeta a la siguiente licencia:
La difusión, reproducción y traducción de este texto se permite libremente en cualquier medio o soporte con las únicas obligaciones de mantener la presente licencia e incluir un enlace o referencia a la página en la que se encuentra el original dentro del servidor www.imatica.org . En medios audiovisuales se requiere la cita al medio www.imatica.org
Fuente: imatica
lunes, 1 de noviembre de 2010
Así vamos: Convocatorias Sedes del CNSL#7
Saludos, amigos.
Ya se han recibido noticias de varias personas y grupos e incluso instituciones que desean formar parte de la organización del Séptimo Congreso Nacional de Software Libre.
Por los momentos lo único que se ha pedido es que quienes deseen llevar el CNSL hasta su localidad, envíen un correo simple solicitándolo.
Hasta ahora se han manifestado (en orden de aparición) Carúpano, Barcelona, San Felipe, Margarita, Aragua, Bolívar, Coro, Táchira y Tucupita. Nos da mucho gusto saber que el próximo CNSL muy probablemente llene toda su agenda de fines de semana por 3 meses de puro Software Libre.
A continuación se pedirá a estos grupos que llenen una simple forma con algunos datos, para ya ir convocando la reunión de organizadores del CNSL#7, que tendrá cita en enero de 2011.
Si quieres ser organizador del CNSL que viene, no esperes. Pronto se cerrarán las postulaciones de sedes y sólo las que han manifestado su interés serán quienes tengan el tiempo suficiente para que las cosas les salgan bien a todos.
Pendientes por este canal.
Fuente: cnsl.org.ve
Ya se han recibido noticias de varias personas y grupos e incluso instituciones que desean formar parte de la organización del Séptimo Congreso Nacional de Software Libre.
Por los momentos lo único que se ha pedido es que quienes deseen llevar el CNSL hasta su localidad, envíen un correo simple solicitándolo.
Hasta ahora se han manifestado (en orden de aparición) Carúpano, Barcelona, San Felipe, Margarita, Aragua, Bolívar, Coro, Táchira y Tucupita. Nos da mucho gusto saber que el próximo CNSL muy probablemente llene toda su agenda de fines de semana por 3 meses de puro Software Libre.
A continuación se pedirá a estos grupos que llenen una simple forma con algunos datos, para ya ir convocando la reunión de organizadores del CNSL#7, que tendrá cita en enero de 2011.
Si quieres ser organizador del CNSL que viene, no esperes. Pronto se cerrarán las postulaciones de sedes y sólo las que han manifestado su interés serán quienes tengan el tiempo suficiente para que las cosas les salgan bien a todos.
Pendientes por este canal.
Fuente: cnsl.org.ve
Partir archivos .tar.gz en archivos multiples y luego unirlos para desempaquetar
Ante todo un Saludo.
Bueno como todo sabemos winzip y winrar tienen la opcion de comprimir archivos grades y no solo eso, también los parten en múltiples archivos de un tamaño definido por el usuario, muchas personas se quejan de que GNU/Linux no tiene dicha funcionalidad pero GNU/Linux si la tiene y a continuación muestro como hacerlo.
lo primero es crear el paquete con el comando:
tar -cvf archivo.tar archivo_o_directorio_a_empaquetar
Luego comprimimos el archivo tar:
gzip archivo.tar
Luego partimos el archivo .tar.gz:
split --bytes=1000m archivo.tar.gz nombrePrefijoPartes_
Donde 1000m es el tamaño en megabytes el cual tendran los archivos resultantes del partido del archivo .tar.gz.
En el lugar donde queremos desempaquetar unimos todos los archivos partidos al archivo principal que es el .tar.gz
cat nombrePrefijoPartes_* > archivo.tar.gz
y por ultimo a desempaquetar con:
tar -xvf Documentos.tar.gz
Espero que les sirva de ayuda a todos los usuarios de GNU/Linux y recuerden todo lo que hace windows, GNU/Linux lo hace mucho mejor, de manera mas eficiente y segura......
Bueno como todo sabemos winzip y winrar tienen la opcion de comprimir archivos grades y no solo eso, también los parten en múltiples archivos de un tamaño definido por el usuario, muchas personas se quejan de que GNU/Linux no tiene dicha funcionalidad pero GNU/Linux si la tiene y a continuación muestro como hacerlo.
lo primero es crear el paquete con el comando:
tar -cvf archivo.tar archivo_o_directorio_a_empaquetar
Luego comprimimos el archivo tar:
gzip archivo.tar
Luego partimos el archivo .tar.gz:
split --bytes=1000m archivo.tar.gz nombrePrefijoPartes_
Donde 1000m es el tamaño en megabytes el cual tendran los archivos resultantes del partido del archivo .tar.gz.
En el lugar donde queremos desempaquetar unimos todos los archivos partidos al archivo principal que es el .tar.gz
cat nombrePrefijoPartes_* > archivo.tar.gz
y por ultimo a desempaquetar con:
tar -xvf Documentos.tar.gz
Espero que les sirva de ayuda a todos los usuarios de GNU/Linux y recuerden todo lo que hace windows, GNU/Linux lo hace mucho mejor, de manera mas eficiente y segura......
Etiquetas:
¿Cómo se hace?
Múltiples perfiles en Firefox
Firefox tiene una opción interesante que nos permite usar el navegador con distintos perfiles. Cada perfil es independiente, y se puede personalizar con diferentes extensiones y temas por separado.
Para abrir el gestor de perfiles:
Para que Firefox nos pregunte cada vez al iniciarlo con qué perfil queremos entrar, desmarcaremos la casilla “Don’t ask at startup”.
Si queréis un nuevo acceso directo a un perfil en concreto, crearemos un acceso directo o lanzadera que apunte a firefox -P nombredelperfil
Fuente: acentoweb
Para abrir el gestor de perfiles:
- En Windows, pulsad la tecla con el logotipo de Windows y R a la vez, y escribid firefox -P
- En Linux, abrid un terminal y escribid firefox -ProfileManager
Para que Firefox nos pregunte cada vez al iniciarlo con qué perfil queremos entrar, desmarcaremos la casilla “Don’t ask at startup”.
Si queréis un nuevo acceso directo a un perfil en concreto, crearemos un acceso directo o lanzadera que apunte a firefox -P nombredelperfil
Fuente: acentoweb
Etiquetas:
¿Cómo se hace?,
Cita
Venezuela: Canaima Va a mi Casa
31 de octubre de 2010, 01:02Por Doris Calderón Terry (Prensa Latina *) Caracas, (PL) "Canaima va a mi casa" es un novedoso proyecto tecnológico-educativo impulsado en Venezuela que permitirá a los niños de segundo grado de primaria llevar a su hogar una computadora portátil. La iniciativa puesta en marcha en el presente curso escolar 2010-2011 por el presidente Hugo Chávez pretende integrar a niños, padres, tutores y representantes de la comunidad en el proceso de enseñanza y formación. Esta modalidad forma parte de Canaima Educativo, un programa implementado en 2009 -2010 que involucra a estudiantes de primer grado en el uso de las tecnologías de la información y la comunicación. En el caso de los más pequeños, el computador permanece en la escuela y es utilizado por varios estudiantes en una denominada Red Salón. Con "Canaima va a mi casa", los estudiantes de segundo tendrán el privilegio de convertirse en exploradores del conocimiento y descubrir contenidos con un enfoque interdisciplinario. Se trata de preparar educandos capaces de enfrentar la era tecnológica y las más diversas temáticas universales. Francy González, directora general de las Tecnologías de la Información y Comunicación del Ministerio para la Educación, subrayó que el proyecto representa una innovación en el proceso de enseñanza-aprendizaje. Algunos de los contenidos que hemos incorporado son para los representantes y familiares de los niños y niñas, por ejemplo, tenemos leyes, cómo cuidar el computador y orientaciones de cómo colaborar en el proceso de aprendizaje, puntualizó. Hay más de 200 contenidos, explicó, desarrollados en las áreas de cultura, lenguaje y comunicación, ciencias sociales e historia, ciencia y tecnología y deporte y recreación. Los niños estarán conectados a una especie de red intraescolar que será supervisada por el profesor, quien además será el encargado de dirigir el intercambio pedagógico. El objetivo es que los estudiantes ya familiarizados con las computadoras puedan llevarse los equipos a sus hogares y aprendan a cuidarlos y mantenerlos. La idea es que cuando pasen a grados superiores puedan asimilar con facilidad las nuevas informaciones y algunos contenidos incorporados. Con vistas a garantizar el éxito del proyecto, desde su primera fase el Ministerio para la Educación diseñó un plan de formación, en el que convocó a los maestros con experiencia en el uso de las tecnologías. Ese grupo de educadores fue distribuido en cada estado y se convirtió en "formadores de formadores" pues asumieron la tarea de capacitar a todos los demás maestros a nivel nacional. "Canaima va a mi casa" está integrado por un equipo multidisciplinario de más de un centenar de expertos que trabajan a diario para generar los contenidos educativos del proyecto. El grupo lo conforman informáticos, pedagogos y diseñadores que plasman su talento en multimedias y juegos interactivos para que los pequeños aprendan a través de videos, lecturas y evaluaciones. También existe ya un equipo de la Dirección General de Supervisión Educativa, el cual monitorea el impacto del programa en aras de mejorar la práctica pedagógica y crear nuevos paradigmas en los procesos de aprendizaje. En fecha reciente, la ministra venezolana de Educación, Jennifer Gil, informó que está previsto entregar entre 10 mil y 20 mil equipos cada semana hasta cumplir la meta pautada de 525 mil. La titular señaló que se espera llegar a esa cifra en la primera quincena de enero del año próximo y, en ese sentido, destacó que se beneficiarán los colegios estatales y municipales dependientes del ministerio y aquellos subvencionados. El programa para el cual se invirtieron más de 400 millones de bolívares (100 millones de dólares) cumple con la Ley Orgánica de Educación, en cuanto a enseñanza gratuita y de calidad para la población. Canaima Educativa apunta hacia la transformación de la práctica pedagógica con la ruptura de los paradigmas en los procesos de aprendizaje y avanza hacia la transformación educativa del país. En su reciente gira internacional, Hugo Chávez dio a conocer que al finalizar el 2010 Venezuela contará con 875 unidades Canaima para continuar distribuyendo esta herramienta tecnológica entre los escolares del país y reforzar el proceso de enseñanza-aprendizaje. Chávez hizo el anuncio durante un recorrido por las instalaciones de la fábrica portuguesa J.P. Sá Couto, encargada de la elaboración de piezas y ensamblaje de las computadoras. La industria está ubicada en la zona de Matosinhos, en Oporto, Portugal, última escala de su gira que lo llevó a otros seis países de Europa, Asia y África. El dignatario venezolano comentó sobre la instalación de una fábrica de este tipo en las inmediaciones de La Carlota, en Caracas, donde en su opinión nace un polo de desarrollo científico. "Canaima va a mi casa" abre las puertas al niño para que disponga de un recurso de alta calidad tecnológica y pedagógica que le permitirá crecer tanto a él como a sus profesores. (*) La autora es corresponsal de Prensa Latina en Venezuela. Fuente: prensa-latina |
Suscribirse a:
Entradas (Atom)