La plataforma on-line donde residen múltiples proyectos open-source, SourceForge.net ha recibido una serie de ataques dirigidos específicamente contra sus servidores el compromiso de varios.
Nuestros compañeros de MuySeguridad.net han comentado los problemas que ha tenido la plataforma y cómo han tenido que apagar numerosos servidores para evitar el ataque y salvaguardar los datos de proyectos open-source que albergan.
De momento siguen estudiando el alcance del ataque, aunque según parece, no ha llegado a alterar ningún proyecto, el peor de los casos, ya que podría haber troyanizado aplicaciones y con ello casi echado a perder el trabajo de años de miles de desarrolladores que han echado horas y horas de manera colaborativa en los distintos proyectos de SourceForge.net.
Fuente: muylinux.com
Blog que imparte conocimientos a todas las personas que les interese el mundo de la tecnología, software libre y programación.
domingo, 30 de enero de 2011
lunes, 24 de enero de 2011
¿Qué es openshot?
OpenShot Video Editor es un editor de video no lineal de código abierto programado en Python, y el framework MLT. El proyecto fue iniciado en Agosto de 2008 por Jonathan Thomas, con el objetivo de proveer un editor de video gratuito, robusto y fácil de usar para la plataforman Linux.
Características de OpenShot
* Soporte para muchos formatos de video audio e imagen estática (basado en FFMPEG).
* Integrado con Gnome (arrastrar y soltar).
* Múltiples pistas de video y audio.
* Edición ajustada a las rejilla de tiempo u otros clips, y corte de metraje.
* Transiciones de video con previsualizaciones en tiempo real.
* Composición digital, superposición de imagen, marca de agua.
* Títulos animados en 3D.
* Plantillas de títulos, creación de títulos, subtítulos.
* Admite SVG para crear títulos y créditos.
* Créditos rodados.
* Clips de color sólido (incluyendo composición alfa).
* Soporte para arrastrar y soltar en la línea de tiempo.
* Reproducción cuadro por cuadro con las teclas: J,K, y L.
* Codificación de video (basado en FFMPEG).
* Animación por cuadro clave.
* Zoom digital para los clips de video.
* Cambio de velocidad de reproducción de los clips.
* Soporta máscaras personalizadas para las transiciones.
* Escalado de video (tamaño de cuadro).
* Mezcla y edición de audio.
* Efecto Ken Burns.
* Efectos digitales de video, incluyendo brillo, gama, tonalidad, escala de grises, inserción chroma (pantalla verde o azul), y otros 20 efectos.
* Listo para trabajar con video de alta definición como HDV y AVCHD.
Su pagina Oficial es: http://www.openshot.org/
Fuente: wikipedia.org
Características de OpenShot
* Soporte para muchos formatos de video audio e imagen estática (basado en FFMPEG).
* Integrado con Gnome (arrastrar y soltar).
* Múltiples pistas de video y audio.
* Edición ajustada a las rejilla de tiempo u otros clips, y corte de metraje.
* Transiciones de video con previsualizaciones en tiempo real.
* Composición digital, superposición de imagen, marca de agua.
* Títulos animados en 3D.
* Plantillas de títulos, creación de títulos, subtítulos.
* Admite SVG para crear títulos y créditos.
* Créditos rodados.
* Clips de color sólido (incluyendo composición alfa).
* Soporte para arrastrar y soltar en la línea de tiempo.
* Reproducción cuadro por cuadro con las teclas: J,K, y L.
* Codificación de video (basado en FFMPEG).
* Animación por cuadro clave.
* Zoom digital para los clips de video.
* Cambio de velocidad de reproducción de los clips.
* Soporta máscaras personalizadas para las transiciones.
* Escalado de video (tamaño de cuadro).
* Mezcla y edición de audio.
* Efecto Ken Burns.
* Efectos digitales de video, incluyendo brillo, gama, tonalidad, escala de grises, inserción chroma (pantalla verde o azul), y otros 20 efectos.
* Listo para trabajar con video de alta definición como HDV y AVCHD.
Su pagina Oficial es: http://www.openshot.org/
Fuente: wikipedia.org
Etiquetas:
Cita,
Definición
domingo, 23 de enero de 2011
Como montar un Cluster de Alta disponibilidad en GNU/Linux
En este articulo aprenderemos a implementar un Cluster de Alta disponibilidad (AD).
Material necesario:
Un cluster , consiste en un grupo de nodos conectados entre si que interactuan como una sola maquina (“En caso que un nodo dejase de funcionar tomaría el control el segundo nodo”) , reduciendo así considerablemente la tolerancia a fallos y caídas de servicio.
Un cluster podría servir perfectamente en el caso de un problema de Hardware nuestros clientes
tendrían igualmente servicio ya que uno de los nodos tomaría el control como maquina primaria.
¿Qué es Heartbeat?
Heartbeat es un paquete de software creado por LINUX-HA, funciona de forma similar al System V o init pero en vez de una sola máquina pasaría a ejecutar los servicios en los nodos, basándose en que no le llegan respuestas estas se hacen por medio de ping y por pulsaciones del cable serie.
¿Que es STONITH?
STONITH son la Siglas de “Shoot The Other Node In The Head” (“ Pégale un Tiro en la Cabeza al otro Nodo”). Es una técnica usada por Heartbeat que se asegura de que un servidor supuestamente muerto no interfiera con el funcionamiento del cluster, en caso de no implementarse bien esta técnica, podría dar lugar a que el cluster no funcione.
A grosso modo STONITH consiste en que el servidor secundario nota que el primario no funciona, y
este le haría un DDOS al primario para asegurarse de que ha sido un falso positivo y tomaría el nodo
secundario el control.
Preparando el Hardware
Existen 3 cosas especificas del cluster que hay que conectar, los discos, las NICs de interconexión,
el cable serial de interconexión y los cables de control de los UPS
Para nuestro cluster necesitaremos varios paquetes de software.
Heartbeat-1.0.3, Heartbeat-pils-1.0.3, Heartbeat-stonith-1.0.3
cada uno de ellos se encuentra en los repositorios de las distribuciones o se incluye como paquete en
los CDs de instalación de esta (“ Cuando instale SUSE 9.3 me pareció verlos en la instalación) si no los encontráis podéis mirar en http://linux-ha.org los paquetes los instalaremos usando nuestro administrador de paquetes favoritos ya sea apt-get, yast,urpmi, emerge, etc.
Por ultimo nos queda instalar el servicio que queramos dar ya sea samba,apache postfix, etc.
Configurando DRBD.
DRBD se configura en el fichero /etc/drbd.conf
Creando el Sistema de Ficheros
A continuación crearemos el sistema de ficheros para Zeus ( Servidor Primario) es importante usar un sistema de ficheros con Journaling como Reiserfs, ext3, jfs, xfs.
Crearemos dos particiones del mismo tamaño en el dispositivo /dev/nb0 los dos servidores y con
Reiserfs ya que se considera mas seguro.
Instrucciones a ejecutar en Zeus
ahora creamos el sistema de ficheros y lo montamos
parámetros los parámetros de esta para que nos funcione en modo fullduplex ver Activando
Fullduplex en tarjetas ethernet en este mismo foro
Configurando Heartbeat
Heartbeat tiene tres ficheros de configuración.
1. ha.cf Configura información básica del cluster
2. haresources.cf Configura los grupos de recursos tipo init
3. authkeys Configura la Autenticación de red
Se pueden encontrar ejemplos de estos ficheros en /usr/share/doc/pakages/Heartbeat y se documentan en el fichero “Getting Started” de Heartbeat
ha.cf le aporta a Heartbeat la información de la configuración básica. Configura los nodos,
pulsaciones serial, la manera de registrar los logs intervalo de tiempo muerto y pulsaciones
ejemplo de nuestro ha.cf
Fichero /etc/ha.d/haresources
Este fichero crea un grupo de recursos que en teoría pertenecen a Zeus, asociados a una IP virtual
10.10.10.20 y los recursos a servir:
● NFS (Network File System)
● Samba (compartir archivos Windows)
● Dhcp (asignación dinámica de IPs)
● Postfix (Servidor de Correo electrónico)
/etc/ha.d/resource.d y el resto de servicios típicos en /etc/init.d/
Heartbeat se las apaña de maravilla administrando la mayoría de servicios que vienen en los V
System init comúnmente llamados los scripts de arranque, sin embargo una de las condiciones para
que Heartbeat administre correctamente los Scripts es que tienen de tener el mismo nombre en todos
los Nodos, por lo tanto recomiendo usar una distribución idéntica en las dos maquinas así
simplificaremos la configuración y el mantenimiento.
Fichero /etc/ha.d/authkeys
authkeys es el fichero de configuración mas sencillo de todos. Contiene el método de autenticación basado en (sha1) con la clave que se usara para firmar los paquetes . este fichero tiene que ser idéntico en todos los servidores y no debe tener ningún usuario acceso de lectura a excepción de root:
Tenemos de deshabilitar los servicios para que no sean controlados por init si no por Heartbeat
esto lo conseguiremos con el siguiente comando:
/etc/ha.d/haresources para servir.
Configurando /etc/fstab
Tenemos de tener especial cuidado en que la partición /home no se monte automáticamente desde /etc/fstab si existe ya una entrada para /home en dicho fichero la eliminamos y creamos esta:
Configuración del Fichero /etc/hosts
Si no tenemos un servidor DNS corriendo en nuestra red tendremos de usar nuestro archivo /etc/hosts quedando de esta manera:
Ahora es el momento de configurar el servidor segundario para que monte /home desde NFS
añadiendo lo siguiente en /etc/fstab
y creamos la siguiente estructura de directorios:
de la directiva [ global ] de /etc/samba/smb.cf
Fuente: trucolinux.com
Material necesario:
- 2 maquinas con Linux
- El paquete Heardbeat
- un Sistema de ficheros con Journaling
- Una Red
- Puerto serie
Un cluster , consiste en un grupo de nodos conectados entre si que interactuan como una sola maquina (“En caso que un nodo dejase de funcionar tomaría el control el segundo nodo”) , reduciendo así considerablemente la tolerancia a fallos y caídas de servicio.
Un cluster podría servir perfectamente en el caso de un problema de Hardware nuestros clientes
tendrían igualmente servicio ya que uno de los nodos tomaría el control como maquina primaria.
¿Qué es Heartbeat?
Heartbeat es un paquete de software creado por LINUX-HA, funciona de forma similar al System V o init pero en vez de una sola máquina pasaría a ejecutar los servicios en los nodos, basándose en que no le llegan respuestas estas se hacen por medio de ping y por pulsaciones del cable serie.
¿Que es STONITH?
STONITH son la Siglas de “Shoot The Other Node In The Head” (“ Pégale un Tiro en la Cabeza al otro Nodo”). Es una técnica usada por Heartbeat que se asegura de que un servidor supuestamente muerto no interfiera con el funcionamiento del cluster, en caso de no implementarse bien esta técnica, podría dar lugar a que el cluster no funcione.
A grosso modo STONITH consiste en que el servidor secundario nota que el primario no funciona, y
este le haría un DDOS al primario para asegurarse de que ha sido un falso positivo y tomaría el nodo
secundario el control.
Preparando el Hardware
Existen 3 cosas especificas del cluster que hay que conectar, los discos, las NICs de interconexión,
el cable serial de interconexión y los cables de control de los UPS
- Primero instalaremos los discos, pero no crearemos aun ningún sistema de ficheros.
- Instalaremos las NICs y las configuraremos con IPs privadas de la misma subred en los rangos
192.168.0.0/16 o el rango 10.0.0/8 - A continuación nos haremos con un cable Serial para la comunicación PC a PC . Nos
aseguraremos de que el cable incluya modems null y que incluya cables CTS Y RTS - Conectamos cada ordenador a su UPS
Para nuestro cluster necesitaremos varios paquetes de software.
Heartbeat-1.0.3, Heartbeat-pils-1.0.3, Heartbeat-stonith-1.0.3
cada uno de ellos se encuentra en los repositorios de las distribuciones o se incluye como paquete en
los CDs de instalación de esta (“ Cuando instale SUSE 9.3 me pareció verlos en la instalación) si no los encontráis podéis mirar en http://linux-ha.org los paquetes los instalaremos usando nuestro administrador de paquetes favoritos ya sea apt-get, yast,urpmi, emerge, etc.
Por ultimo nos queda instalar el servicio que queramos dar ya sea samba,apache postfix, etc.
Configurando DRBD.
DRBD se configura en el fichero /etc/drbd.conf
Código:
resource drbd0 { protocol=C fsckcmd=/bin/true disk { disk-size=80418208 do-panic } net { sync-rate=8M # bytes/sec timeout=60 connect-int=10 ping-int=10 } on Zeus { # Zeus es el nombre del servidor principal device=/dev/nb0 disk=/dev/hda1 address=192.168.1.1 port=7789 } on SolarUX { #SolarUX es el nombre del servidor secundario device=/dev/nb0 disk=/dev/hda1 address=192.168.1.2 port=7789 } }Nota: Para calcular el tamaño del disco usaremos blockdev-getsize y dividiremos el resultado por dos si ambas partes dan resultado diferente elegiremos el mas grande
Creando el Sistema de Ficheros
A continuación crearemos el sistema de ficheros para Zeus ( Servidor Primario) es importante usar un sistema de ficheros con Journaling como Reiserfs, ext3, jfs, xfs.
Crearemos dos particiones del mismo tamaño en el dispositivo /dev/nb0 los dos servidores y con
Reiserfs ya que se considera mas seguro.
Instrucciones a ejecutar en Zeus
Código:
Root@Zeus:~# /etc/init.d/drbd startLe respondemos “yes” para que nos ponga a Zeus como primario.
ahora creamos el sistema de ficheros y lo montamos
Código:
Root@Zeus:~# mkfs -t reiserfs /dev/nb0 datadisk /dev/nb0 startpor último si usamos una conexión Ethernet de 1Gb para la sincronización, cambiaremos los
parámetros los parámetros de esta para que nos funcione en modo fullduplex ver Activando
Fullduplex en tarjetas ethernet en este mismo foro
Configurando Heartbeat
Heartbeat tiene tres ficheros de configuración.
1. ha.cf Configura información básica del cluster
2. haresources.cf Configura los grupos de recursos tipo init
3. authkeys Configura la Autenticación de red
Se pueden encontrar ejemplos de estos ficheros en /usr/share/doc/pakages/Heartbeat y se documentan en el fichero “Getting Started” de Heartbeat
ha.cf le aporta a Heartbeat la información de la configuración básica. Configura los nodos,
pulsaciones serial, la manera de registrar los logs intervalo de tiempo muerto y pulsaciones
ejemplo de nuestro ha.cf
Código:
logfacility local7 # servicio de syslog keepalive 1 #Intervalo pulsación warntime 2 #Pulsación Tardía deadtime 10 # Tiempo control Fallos nice_failback on node Zeus SolarUX ping 10.10.10.254 # Dirección del Router bcast eth0 eth1 #Broadcast Interfaces Heartbeat serial /dev/ttyS0 #Enlace Serial Heartbeat respawn /usr/lib/Heartbeat/ipfail stonith_host Zeus apcsmart SolarUX /dev/ttyS1 stonith_host SolarUX apcsmart Zeus /dev/ttyS1las pulsaciones se envían por eth0, eth1 y serial /dev/ttyS0 este fichero es idéntico para todos los nodos
Fichero /etc/ha.d/haresources
Este fichero crea un grupo de recursos que en teoría pertenecen a Zeus, asociados a una IP virtual
10.10.10.20 y los recursos a servir:
● NFS (Network File System)
● Samba (compartir archivos Windows)
● Dhcp (asignación dinámica de IPs)
● Postfix (Servidor de Correo electrónico)
Código:
Zeus 10.10.10.20 datadisk::drbd0 nfslock nfsserver smb dhcpd postfixPara clarificar donde están colocados los scripts diré que Ipaddr y datadisk están en
/etc/ha.d/resource.d y el resto de servicios típicos en /etc/init.d/
Heartbeat se las apaña de maravilla administrando la mayoría de servicios que vienen en los V
System init comúnmente llamados los scripts de arranque, sin embargo una de las condiciones para
que Heartbeat administre correctamente los Scripts es que tienen de tener el mismo nombre en todos
los Nodos, por lo tanto recomiendo usar una distribución idéntica en las dos maquinas así
simplificaremos la configuración y el mantenimiento.
Fichero /etc/ha.d/authkeys
authkeys es el fichero de configuración mas sencillo de todos. Contiene el método de autenticación basado en (sha1) con la clave que se usara para firmar los paquetes . este fichero tiene que ser idéntico en todos los servidores y no debe tener ningún usuario acceso de lectura a excepción de root:
Código:
auth 1 1 sha1 RandomPasswordfc970c94efbConfiguración de los Servicios
Tenemos de deshabilitar los servicios para que no sean controlados por init si no por Heartbeat
esto lo conseguiremos con el siguiente comando:
Código:
Root@Zeus:~# chkconfig -del nfslock nfsserver smb dhcpd postfixNótese que deberíamos cambiar los servicios marcados en azul por los que tenemos configurados en
/etc/ha.d/haresources para servir.
Configurando /etc/fstab
Tenemos de tener especial cuidado en que la partición /home no se monte automáticamente desde /etc/fstab si existe ya una entrada para /home en dicho fichero la eliminamos y creamos esta:
Código:
/dev/nb0 /home reiserfs noauto 0 0Nota: si home ya esta montado lo desmontamos con umount /home
Configuración del Fichero /etc/hosts
Si no tenemos un servidor DNS corriendo en nuestra red tendremos de usar nuestro archivo /etc/hosts quedando de esta manera:
Código:
10.10.10.20 Cluster # IP virtual cluster 192.168.1.1 Zeus #Servidor Primario 192.168.1.2 SolarUX # Servidor Segundario (Nodo)Montando todo el Cotarro
Ahora es el momento de configurar el servidor segundario para que monte /home desde NFS
añadiendo lo siguiente en /etc/fstab
Código:
Cluster:/home /home nfs defaults 0 0Una vez la partición NFS montada creamos el directorio /home/HA.config
y creamos la siguiente estructura de directorios:
Código:
/etc postfix/ samba/ exports dhcpd.conf /var lib/ dhcpd samba nfs spool/ postfix/ mail/Después de montar la estructura de directorios tendríamos que crear enlaces simbólicos por ejemplo
Código:
ln -s /home/HA.config/etc/samba/smb.cf /etc/samba/smb.cfAhora desmontamos /home de la siguiente forma:
Código:
Root@Zeus:~# datadisk /dev/nb0 stop Root@Zeus:~# /etc/init.d/drbd stopTambién podemos configurar samba para que escuche en la interface del cluster modificando dentro
de la directiva [ global ] de /etc/samba/smb.cf
Código:
interfaces = 127.0.0.1/8 10.10.10.10.20/24 Comprobando si todo Funciona DRBD Arrancamos drbd tanto en Zeus como en SolarUX con:
Código:
Root@Zeus:~# /etc/init.d/drbd startuna vez iniciado comprobaremos en Zeus si ha arrancado con:
Código:
Root@Zeus:~# cat /proc/drbdveríamos algo así 0: cs:SyncingAll st:Primary/Secondary Esto nos indica que ha sido todo arrancado correctamente y que una Sincronización Completa está en marcha . Esta sincronización tarda un poco y se puede ver el progreso en /proc/drbd Heartbeat
Código:
Root@Zeus:~# /etc/init.d/Heartbeat start Root@Zeus:~# ifconfig |grep 10.10.10.20 Root@Zeus:~# /etc/init.d/nfslock status Root@Zeus:~# /etc/init.d/smb status Root@Zeus:~# /etc/init.d/dhcpd status Root@Zeus:~# /etc/init.d/postfix status/home tiene que estar montado en Cluster y todos los servicios tendrían de estar corriendo Delegando Funciones Ahora Heartbeat tiene de ser capaz de retransmitir todos los trabajos a SolarUX lo haremos con:
Código:
Root@Zeus:~# /usr/sbin/Heartbeat/hb_standbyAhora hacemos los pasos de arriba Heartbeat en SolarUX y comprobamos si todo funciona correctamente si es así delegamos funciones a Zeus
Código:
Root@SolarUx:~# /usr/sbin/Heartbeat/hb_standbyComprobamos en Zeus y si es así ya casi está.
Administrador Contento
Desconectamos el cable de red a Zeus y en estos momentos aproximadamente unos 10 Sec SolarUX tendría de responder a la ip Virtual 10.10.10.20 y darnos ServicioFuente: trucolinux.com
Etiquetas:
¿Cómo se hace?,
Cita
viernes, 21 de enero de 2011
Como Conectar dos PC directamente en GNU/Linux
Ante todo un cordial saludo.
Lo primero que se debe tener para hacer dicha conexión es:
- Un cable de red con sus conectores RJ-45 y que este construido en modo cruzado o algunos le dicen crossover.
- Que las 2 pcs tenga sus respectivas tarjetas de red instaladas.
- Que ambos equipos tenga GNU/Linux instalado (no importa la distribución).
- Ambos sistemas que tengan soporte para IPv4.
Primer paso (configuración del PC1 que hara de gateway):
Aquí simplemente tenemos que editar el archivo /etc/network/interfaces y darle los parámetros de la ip estática que tomara el equipo.
los comandos necesarios para poder editarlo son:
$ su
pide la contraseña de root se escribe y se le da enter.
# pico /etc/network/interfaces
ó
$ sudo pico /etc/network/interfaces
Entraremos en la edición del archivo allí comentaremos las lineas:
allow-hotplug eth0
iface eth0 inet dhcp
Dejandolas asi:
# allow-hotplug eth0
# iface eth0 inet dhcp
Y luego colocamos lo siguiente:
auto eth0
iface eth0 inet static
address 192.168.1.1
netmask 255.255.255.0
network 192.168.1.0
broadcast 192.168.1.255
gateway 192.168.1.1
Guardamos lo escrito y luego ejecutamos
# su
pide la contraseña de root se escribe y se le da enter.
# ifdown eth0
# ifup eth0
ó
$ sudo ifdown eth0 & ifup eth0
Segundo paso (configuración del PC2):
Editamos el archivo /etc/network/interfaces para darle los parámetros de la ip estática que tomara el equipo.
los comandos necesarios para poder editarlo son:
$ su
pide la contraseña de root se escribe y se le da enter.
# pico /etc/network/interfaces
ó
$ sudo pico /etc/network/interfaces
Entraremos en la edición del archivo allí comentaremos las lineas:
allow-hotplug eth0
iface eth0 inet dhcp
Dejándolas así:
# allow-hotplug eth0
# iface eth0 inet dhcp
Y luego colocamos lo siguiente:
auto eth0
iface eth0 inet static
address 192.168.1.2
netmask 255.255.255.0
network 192.168.1.0
broadcast 192.168.1.255
gateway 192.168.1.1
Guardamos lo escrito y luego ejecutamos
# su
pide la contraseña de root se escribe y se le da enter.
# ifdown eth0
# ifup eth0
ó
$ sudo ifdown eth0 & ifup eth0
Tercer Paso:
En Este paso solo tenemos que conectar el cable a ambas maquinas y luego ejecutar de la PC 2 a la PC 1 el siguiente comando:
$ ping 192.168.1.1
El Resultado de Ejecutar el comando se puede parecer a este:
PING 192.168.1.1 (192.168.1.1) 56(84) bytes of data.
64 bytes from 192.168.1.1: icmp_seq=1 ttl=64 time=0.146 ms
64 bytes from 192.168.1.1: icmp_seq=2 ttl=64 time=0.140 ms
64 bytes from 192.168.1.1: icmp_seq=3 ttl=64 time=0.138 ms
64 bytes from 192.168.1.1: icmp_seq=4 ttl=64 time=0.143 ms
64 bytes from 192.168.1.1: icmp_seq=5 ttl=64 time=0.143 ms
^C
--- 192.168.1.1 ping statistics ---
5 packets transmitted, 5 received, 0% packet loss, time 53996ms
rtt min/avg/max/mdev = 0.138/0.142/0.146/0.102 ms
Desde ya Gracias
Lo primero que se debe tener para hacer dicha conexión es:
- Un cable de red con sus conectores RJ-45 y que este construido en modo cruzado o algunos le dicen crossover.
- Que las 2 pcs tenga sus respectivas tarjetas de red instaladas.
- Que ambos equipos tenga GNU/Linux instalado (no importa la distribución).
- Ambos sistemas que tengan soporte para IPv4.
Primer paso (configuración del PC1 que hara de gateway):
Aquí simplemente tenemos que editar el archivo /etc/network/interfaces y darle los parámetros de la ip estática que tomara el equipo.
los comandos necesarios para poder editarlo son:
$ su
pide la contraseña de root se escribe y se le da enter.
# pico /etc/network/interfaces
ó
$ sudo pico /etc/network/interfaces
Entraremos en la edición del archivo allí comentaremos las lineas:
allow-hotplug eth0
iface eth0 inet dhcp
Dejandolas asi:
# allow-hotplug eth0
# iface eth0 inet dhcp
Y luego colocamos lo siguiente:
auto eth0
iface eth0 inet static
address 192.168.1.1
netmask 255.255.255.0
network 192.168.1.0
broadcast 192.168.1.255
gateway 192.168.1.1
Guardamos lo escrito y luego ejecutamos
# su
pide la contraseña de root se escribe y se le da enter.
# ifdown eth0
# ifup eth0
ó
$ sudo ifdown eth0 & ifup eth0
Segundo paso (configuración del PC2):
Editamos el archivo /etc/network/interfaces para darle los parámetros de la ip estática que tomara el equipo.
los comandos necesarios para poder editarlo son:
$ su
pide la contraseña de root se escribe y se le da enter.
# pico /etc/network/interfaces
ó
$ sudo pico /etc/network/interfaces
Entraremos en la edición del archivo allí comentaremos las lineas:
allow-hotplug eth0
iface eth0 inet dhcp
Dejándolas así:
# allow-hotplug eth0
# iface eth0 inet dhcp
Y luego colocamos lo siguiente:
auto eth0
iface eth0 inet static
address 192.168.1.2
netmask 255.255.255.0
network 192.168.1.0
broadcast 192.168.1.255
gateway 192.168.1.1
Guardamos lo escrito y luego ejecutamos
# su
pide la contraseña de root se escribe y se le da enter.
# ifdown eth0
# ifup eth0
ó
$ sudo ifdown eth0 & ifup eth0
Tercer Paso:
En Este paso solo tenemos que conectar el cable a ambas maquinas y luego ejecutar de la PC 2 a la PC 1 el siguiente comando:
$ ping 192.168.1.1
El Resultado de Ejecutar el comando se puede parecer a este:
PING 192.168.1.1 (192.168.1.1) 56(84) bytes of data.
64 bytes from 192.168.1.1: icmp_seq=1 ttl=64 time=0.146 ms
64 bytes from 192.168.1.1: icmp_seq=2 ttl=64 time=0.140 ms
64 bytes from 192.168.1.1: icmp_seq=3 ttl=64 time=0.138 ms
64 bytes from 192.168.1.1: icmp_seq=4 ttl=64 time=0.143 ms
64 bytes from 192.168.1.1: icmp_seq=5 ttl=64 time=0.143 ms
^C
--- 192.168.1.1 ping statistics ---
5 packets transmitted, 5 received, 0% packet loss, time 53996ms
rtt min/avg/max/mdev = 0.138/0.142/0.146/0.102 ms
Desde ya Gracias
Etiquetas:
¿Cómo se hace?
jueves, 20 de enero de 2011
Posible inauguración de CNSL7
Según Octavio Rossell
“hay diez tipos de personas: las que entienden el binario y las que se quedan esperando a las otras ocho”
Hoy se propuso esta agenda en la lista de correos. Aunque es probable que tenga cambios, pues aún está en discusión, más o menos así va el cuento:
* 08 Enero – 12 Enero = Manifestación de voluntad de los organizadores de las sedes
* 15 Enero – 15 Febrero = Confirmación de Auditorios de cada sede.
* 16 Febrero – 31 Marzo = Postulación de Ponencias.
* 29 Abril = Inauguración CNSL7
Esto nos deja que posiblemente el 29 de abril comience el CNSL7
Para mas información acceder a: http://cnsl.org.ve/
“hay diez tipos de personas: las que entienden el binario y las que se quedan esperando a las otras ocho”
Hoy se propuso esta agenda en la lista de correos. Aunque es probable que tenga cambios, pues aún está en discusión, más o menos así va el cuento:
* 08 Enero – 12 Enero = Manifestación de voluntad de los organizadores de las sedes
* 15 Enero – 15 Febrero = Confirmación de Auditorios de cada sede.
* 16 Febrero – 31 Marzo = Postulación de Ponencias.
* 29 Abril = Inauguración CNSL7
Esto nos deja que posiblemente el 29 de abril comience el CNSL7
Para mas información acceder a: http://cnsl.org.ve/
Etiquetas:
Noticias
Comienza la Organizacion de flisol venezuela
Se esta Comenzando a Organizar Flisol Venezuela Todo aquel que quiera información o colaborar pueden acceder a la siguiente dirección web:
http://flisol.info/FLISOL2011/Venezuela?action=diff
¿Qué es el FLISoL?
El Festival Latinoamericano de Instalación de Software Libre (FLISoL) es el evento de difusión de Software Libre más grande en Latinoamérica. Se realiza desde el año 2005 y desde el 2008 se adoptó su realización el 4to Sábado de abril de cada año. En 2011 por única vez será el día 9 de Abril.
Su principal objetivo es promover el uso del software libre, dando a conocer al público en general su filosofía, alcances, avances y desarrollo.
A tal fin, las diversas comunidades locales de software libre (en cada país/ciudad/localidad), organizan simultáneamente eventos en los que se instala, de manera gratuita y totalmente legal, software libre en las computadoras que llevan los asistentes. Además, en forma paralela, se ofrecen charlas, ponencias y talleres, sobre temáticas locales, nacionales y latinoamericanas en torno al Software Libre, en toda su gama de expresiones: artística, académica, empresarial y social.
http://flisol.info/FLISOL2011/Venezuela?action=diff
¿Qué es el FLISoL?
El Festival Latinoamericano de Instalación de Software Libre (FLISoL) es el evento de difusión de Software Libre más grande en Latinoamérica. Se realiza desde el año 2005 y desde el 2008 se adoptó su realización el 4to Sábado de abril de cada año. En 2011 por única vez será el día 9 de Abril.
Su principal objetivo es promover el uso del software libre, dando a conocer al público en general su filosofía, alcances, avances y desarrollo.
A tal fin, las diversas comunidades locales de software libre (en cada país/ciudad/localidad), organizan simultáneamente eventos en los que se instala, de manera gratuita y totalmente legal, software libre en las computadoras que llevan los asistentes. Además, en forma paralela, se ofrecen charlas, ponencias y talleres, sobre temáticas locales, nacionales y latinoamericanas en torno al Software Libre, en toda su gama de expresiones: artística, académica, empresarial y social.
Etiquetas:
Noticias
¿Qué es BOINC?
La Infraestructura Abierta de Berkeley para la Computación en Red, o BOINC por sus siglas en inglés, es una infraestructura para la computación distribuida, desarrollada originalmente para el proyecto SETI@home, pero que actualmente se utiliza para diversos campos como física, medicina nuclear, climatología, etc. La intención de este proyecto es obtener una capacidad de computación enorme utilizando ordenadores personales.
Los proyectos en los que trabaja este software tienen un denominador común, y es que requieren una gran capacidad de cálculo.
En el caso concreto del SETI, en Arecibo (EEUU) existen antenas que reciben la radiación que viene del universo. BOINC divide esta información en fragmentos y la envía a los usuarios, cuyos ordenadores buscan una relación matemática en los datos recibidos, cosa que requiere cálculos muy complejos.
En otros casos se requiere resolver unas ecuaciones muy complejas, que modelizan (representan matemáticamente) moléculas o partículas subatómicas, o fenómenos meteorológicos, bien su comportamiento individual bien su interrelación con otros medios.
Todos esos complejos cálculos matemáticos, son resueltos por PC domésticos que tengan este software instalado.
Actualmente, BOINC es desarrollado por un grupo con sede en Berkeley, en la Universidad de California y dirigido por David Anderson, director del proyecto SETI@home. La plataforma BOINC es considerada como un cuasi-superordenador, disponiendo de unos 570.000 ordenadores activos en todo el mundo y con un rendimiento medio de 2 PetaFLOPS a julio de 2009.[1] Esto hace superar en rendimiento al mayor superordenador del mundo, IBM Roadrunner, que dispone de 1,026 PetaFLOPS.
Esta plataforma de software está desarrollada bajo la filosofía de ser código abierto y disponible bajo la licencia GNU LGPL. Está disponible en varias plataformas incluyendo Windows Vista y diversos tipos de unix como linux, FreeBSD o Mac OS X.
Fuente: wikipedia.org
Los proyectos en los que trabaja este software tienen un denominador común, y es que requieren una gran capacidad de cálculo.
En el caso concreto del SETI, en Arecibo (EEUU) existen antenas que reciben la radiación que viene del universo. BOINC divide esta información en fragmentos y la envía a los usuarios, cuyos ordenadores buscan una relación matemática en los datos recibidos, cosa que requiere cálculos muy complejos.
En otros casos se requiere resolver unas ecuaciones muy complejas, que modelizan (representan matemáticamente) moléculas o partículas subatómicas, o fenómenos meteorológicos, bien su comportamiento individual bien su interrelación con otros medios.
Todos esos complejos cálculos matemáticos, son resueltos por PC domésticos que tengan este software instalado.
Actualmente, BOINC es desarrollado por un grupo con sede en Berkeley, en la Universidad de California y dirigido por David Anderson, director del proyecto SETI@home. La plataforma BOINC es considerada como un cuasi-superordenador, disponiendo de unos 570.000 ordenadores activos en todo el mundo y con un rendimiento medio de 2 PetaFLOPS a julio de 2009.[1] Esto hace superar en rendimiento al mayor superordenador del mundo, IBM Roadrunner, que dispone de 1,026 PetaFLOPS.
Esta plataforma de software está desarrollada bajo la filosofía de ser código abierto y disponible bajo la licencia GNU LGPL. Está disponible en varias plataformas incluyendo Windows Vista y diversos tipos de unix como linux, FreeBSD o Mac OS X.
Fuente: wikipedia.org
Etiquetas:
Cita,
Definición
Debian 6.0 ‘Squeeze’ más pronto que tarde
Esta ya mítica distribución sigue su desarrollo, y de hecho Steve McIntyre, el líder actual del proyecto, parece decidido a tener preparada la nueva versión de Debian en julio de 2010. La razón que argumenta es la de tener Debian 6.0 completada ese mes para poder asistir a DebConf en Nueva York del 1 al 7 de agosto de 2010 con la mente preparada para hablar únicamente del futuro de Debian.
Los planes son ambiciosos, en parte porque ahora Debian y Ubuntu están más interrelacionadas que nunca, y la sincronización de ambos proyectos para el lanzamiento de Debian 6.0 y de Ubuntu 10.04 LTS podría complicarse, algo que el propio McIntyre también comentó. Sin embargo, todo parece orientado a tener la nueva versión de Debian en marcha durante este próximo verano.
“Como los componentes principales de nuestros lanzamientos son compartidos, estamos esperando ser capaces de sincronizar en las mismas o similares versiones de upstream y difundir algo de ese trabajo“, indicaba McIntyre.
El wiki de Debian indica claramente que la congelación del desarrollo de Debian se debería producir el próximo mes de marzo de 2010, y veremos entonces si todo marcha como quieren en Debian, y si eso provoca retrasos en Ubuntu 10.04, que según Shuttleworth podría lanzarse incluso en octubre de 2010, tal y como indican en Software Libre Venezuela.
Fuente: muylinux.com
Los planes son ambiciosos, en parte porque ahora Debian y Ubuntu están más interrelacionadas que nunca, y la sincronización de ambos proyectos para el lanzamiento de Debian 6.0 y de Ubuntu 10.04 LTS podría complicarse, algo que el propio McIntyre también comentó. Sin embargo, todo parece orientado a tener la nueva versión de Debian en marcha durante este próximo verano.
“Como los componentes principales de nuestros lanzamientos son compartidos, estamos esperando ser capaces de sincronizar en las mismas o similares versiones de upstream y difundir algo de ese trabajo“, indicaba McIntyre.
El wiki de Debian indica claramente que la congelación del desarrollo de Debian se debería producir el próximo mes de marzo de 2010, y veremos entonces si todo marcha como quieren en Debian, y si eso provoca retrasos en Ubuntu 10.04, que según Shuttleworth podría lanzarse incluso en octubre de 2010, tal y como indican en Software Libre Venezuela.
Fuente: muylinux.com
lunes, 17 de enero de 2011
Google dejara de usar el códec H264 de vídeo y centrará sus esfuerzos en los formatos de vídeo completamente abiertos como su WebM
Él equipo de Chromium lo anunció por sorpresa y nos pilló a todos desprevenidos: Chrome va a abandonar el soporte para el códec H264 de vídeo, argumentando que a partir de ahora centrará sus esfuerzos en los formatos de vídeo completamente abiertos como su WebM. Tras el revuelo que se montó con el anuncio, Google ha publicado un artículo insistiendo en defender su decisión.
En el artículo, el equipo de Chromium reconoce que H264 tiene más soporte para todos los que publican contenido en la red, pero recuerdan de nuevo que dicho códec obliga a unas cuotas de licencia que la compañía no tiene intenciones de aceptar prefiriendo los formatos más abiertos y libres.
Ante las críticas que acusan a Google de querer controlar todos los formatos de vídeo con este cambio, la compañía ha respondido que su única intención es la de convertir la etiqueta video de HTML en lo más usado para colocar vídeos en internet, y que esperan que muchas de las empresas que colaboren con el formato WebM no estén afiliadas con Google de ninguna forma.
Además de dar estas explicaciones, el equipo de Chromium ha prometido plug-ins para Internet Explorer y Safari que dotarán a ambos navegadores de soporte para el formato WebM. Ahora falta que WebM se convierta realmente en un formato más usado que H264, y entonces el movimiento habrá tenido sentido. Pero de momento, supongo que en Mountain View estarán cruzando los dedos ante la reacción global de los usuarios.
Fuente: analitica.com
En el artículo, el equipo de Chromium reconoce que H264 tiene más soporte para todos los que publican contenido en la red, pero recuerdan de nuevo que dicho códec obliga a unas cuotas de licencia que la compañía no tiene intenciones de aceptar prefiriendo los formatos más abiertos y libres.
Ante las críticas que acusan a Google de querer controlar todos los formatos de vídeo con este cambio, la compañía ha respondido que su única intención es la de convertir la etiqueta video de HTML en lo más usado para colocar vídeos en internet, y que esperan que muchas de las empresas que colaboren con el formato WebM no estén afiliadas con Google de ninguna forma.
Además de dar estas explicaciones, el equipo de Chromium ha prometido plug-ins para Internet Explorer y Safari que dotarán a ambos navegadores de soporte para el formato WebM. Ahora falta que WebM se convierta realmente en un formato más usado que H264, y entonces el movimiento habrá tenido sentido. Pero de momento, supongo que en Mountain View estarán cruzando los dedos ante la reacción global de los usuarios.
Fuente: analitica.com
domingo, 16 de enero de 2011
¿Qué es GNUcap?
Gnucap es un paquete de análisis de circuitos.
El componente principal es un simulador de propósito general del circuito Realiza análisis no lineal de cd y transitorio, el análisis de Fourier, y el análisis de ca. Spice modelos compatibles para el MOSFET (nivel 1-8), BJT, y el diodo se incluyen en esta versión.
Gnucap no está basado en Spice, pero algunos de los modelos se han derivado de los modelos de Berkeley.
A diferencia de las Especias, el motor está diseñado para hacer verdadera simulación de modo mixto. La mayoría del código está en el lugar para el apoyo futuro de la simulación analógica por eventos, y la simulación verdadera multi-tarifa.
Si usted está cansado de las especias y quiere una segunda opinión, usted quiere jugar con el circuito y quieres un simulador que es interactivo, que desea estudiar el código fuente y quieres algo más fácil de seguir que las especias, o usted es un investigador que trabaja en modelización y quieres herramientas de generación automática generación de modelos para hacer su trabajo más fácil, intente con Gnucap.
Traducido con google traductor.
Fuente: gnu.org
El componente principal es un simulador de propósito general del circuito Realiza análisis no lineal de cd y transitorio, el análisis de Fourier, y el análisis de ca. Spice modelos compatibles para el MOSFET (nivel 1-8), BJT, y el diodo se incluyen en esta versión.
Gnucap no está basado en Spice, pero algunos de los modelos se han derivado de los modelos de Berkeley.
A diferencia de las Especias, el motor está diseñado para hacer verdadera simulación de modo mixto. La mayoría del código está en el lugar para el apoyo futuro de la simulación analógica por eventos, y la simulación verdadera multi-tarifa.
Si usted está cansado de las especias y quiere una segunda opinión, usted quiere jugar con el circuito y quieres un simulador que es interactivo, que desea estudiar el código fuente y quieres algo más fácil de seguir que las especias, o usted es un investigador que trabaja en modelización y quieres herramientas de generación automática generación de modelos para hacer su trabajo más fácil, intente con Gnucap.
Traducido con google traductor.
Fuente: gnu.org
Etiquetas:
Cita,
Definición
¿Que es kicad?
Kicad es un entorno de software usado para el diseño de circuitos eléctricos, muy flexible y adaptable , en el que se pueden crear y editar un gran número de componentes y usarlos en Eeschema. Kicad permite el diseño de circuitos impreso modernos de forma sencilla y intuitiva , además en Pcbnew los circuitos se pueden diseñar con múltiples capas y ser visualizadas en 3D.
KiCad está organizado en cinco partes :
KiCad está organizado en cinco partes :
- kicad - El administrador de protectos.
- eeschema - El editor de esquemáticos.
- cvpcb - Seleccionandor de huellas (footprint's) de los componentes usados en el esquemático .
- pcbnew - Entorno de diseño de los circuitos impresos (PCB).
- gerbview - Visualizador de archivos Gerber.
Etiquetas:
Cita,
Definición
domingo, 9 de enero de 2011
Llega Linux kernel 2.6.37
Tras cerca de 12 semanas de desarrollo, Linus Torvald ha presentado 2.6.37, una nueva versión de Linux kernel que incluye interesantes novedades para mejorar la virtualización y un aumento de los controladores disponibles.
En el apartado de virtualización destaca el primer código que permite a Linux funcionar como un host Xen, aunque todavía no al completo, ya que no presenta los drivers del backend, necesarios para que las máquinas invitadas (guests) Xen puedan llegar hasta la red y el disco del sistema anfitrión.
El sistema de archivos Ext4 funcionará ahora más cerca de la block I/O layer, lo que le permitirá mejorar su rendimiento en ordenadores de mayor tamaño.
Otro aspecto notable ha sido el incremento de los controladores con la creación de nuevos drivers, y el perfeccionamiento de algunos de los ya existentes, destacando un nuevo controlador que permite la compatibilidad con el protocolo UASP (USB Attached SCSI Protocol) y varios chips Wi-Fi.
La version 2.6.37 supone el primer Linux kernel moderno que puede trabajar sin el llamado Big Kernel Block (BKL), que limita la escalabilidad en ordenadores con multiprocesadores.
Por último, Linus Torvald adelantó que la versión, 2.6.38 llegará al mercado la próxima primavera, seguramente a finales de marzo o principios de abril.
Fuente: theinquirer.es
En el apartado de virtualización destaca el primer código que permite a Linux funcionar como un host Xen, aunque todavía no al completo, ya que no presenta los drivers del backend, necesarios para que las máquinas invitadas (guests) Xen puedan llegar hasta la red y el disco del sistema anfitrión.
El sistema de archivos Ext4 funcionará ahora más cerca de la block I/O layer, lo que le permitirá mejorar su rendimiento en ordenadores de mayor tamaño.
Otro aspecto notable ha sido el incremento de los controladores con la creación de nuevos drivers, y el perfeccionamiento de algunos de los ya existentes, destacando un nuevo controlador que permite la compatibilidad con el protocolo UASP (USB Attached SCSI Protocol) y varios chips Wi-Fi.
La version 2.6.37 supone el primer Linux kernel moderno que puede trabajar sin el llamado Big Kernel Block (BKL), que limita la escalabilidad en ordenadores con multiprocesadores.
Por último, Linus Torvald adelantó que la versión, 2.6.38 llegará al mercado la próxima primavera, seguramente a finales de marzo o principios de abril.
Fuente: theinquirer.es
sábado, 1 de enero de 2011
¿Qué es LibreOffice?
LibreOffice es una suite ofimática libre bifurcada de OpenOffice.org por The Document Foundation, con origen en la compra de Sun Microsystems (antigua propietaria de OpenOffice.org) por Oracle, y bajo licencia GNU Lesser General Public License.[3]
Dispone de un procesador de texto (LibreOffice Writer), un editor de hojas de cálculo (LibreOffice Calc), un creador de presentaciones (LibreOffice Impress), un gestor de bases de datos (LibreOffice Base), un editor de gráficos vectoriales (LibreOffice Draw), y un editor de fórmulas matemáticas (LibreOffice Math).
Fuente: wikipedia
Dispone de un procesador de texto (LibreOffice Writer), un editor de hojas de cálculo (LibreOffice Calc), un creador de presentaciones (LibreOffice Impress), un gestor de bases de datos (LibreOffice Base), un editor de gráficos vectoriales (LibreOffice Draw), y un editor de fórmulas matemáticas (LibreOffice Math).
Fuente: wikipedia
Etiquetas:
Cita,
Definición
Nace el primer dominio de primer nivel no oficial y de software libre
Para poder hacer frente a la ICANN, organización de Estados Unidos que gestiona los DNS raíz de Internet, y para fomentar la neutralidad en la Red ha nacido ‘.42′, un dominio, por el momento no oficial, de primer nivel que surge con la premisa de crear un Internet abierto y orientado al software libre.
Según la web de registros ’42registry.org’, como requisito es necesario que las webs no alberguen proyectos comerciales o con publicidad. Por su parte, el sistema utiliza los principios de las redes Global Anycast para saltarse las restricciones de ICANN.
Los creadores de este proyecto pretenden crear un Internet abierto, orientado hacia el intercambio de conocimientos y el software libre y son conscientes de la inmensidad del desafío, con las enormes limitaciones que implica pero también son conscientes de los beneficios que ofrece esta opción.
Fuente: aporrea.org
Según la web de registros ’42registry.org’, como requisito es necesario que las webs no alberguen proyectos comerciales o con publicidad. Por su parte, el sistema utiliza los principios de las redes Global Anycast para saltarse las restricciones de ICANN.
Los creadores de este proyecto pretenden crear un Internet abierto, orientado hacia el intercambio de conocimientos y el software libre y son conscientes de la inmensidad del desafío, con las enormes limitaciones que implica pero también son conscientes de los beneficios que ofrece esta opción.
Fuente: aporrea.org
Suscribirse a:
Entradas (Atom)