miércoles, 30 de junio de 2010

¿Cómo saber si una solución de software libre funcionará bien en tu empresa u organización?

Este exclente artículo publicado en el blog Usemos Linux analiza de forma precisa las implicaciones y ventajas del uso de software libre en una empresa:

He recibido muchos correos pidiendo información sobre la utilización de software libre en empresas u organizaciones. Este artículo intenta satisfacer esos requerimientos analizando en profundidad algunos de los aspectos a tener en cuenta a la hora de decidir hacer el traspaso del sistema informático de tu empresa u organización hacia alternativas libres.

La adopción de software libre puede ser tan simple como descargar un paquete de software, instalarlo y usarlo en una sola estación de trabajo, o tan complejo como la implementación de un clúster de servidores Linux para hacer tareas informáticas complejas. Aquí nos centraremos en las implementaciones de menor escala del software libre, que son más relevantes para la mayor parte de las empresas y organizaciones. 

Todas las empresas y organizaciones deberían considerar la implementación de software libre. Pero en cualquier caso, es necesario estudiar en profundidad esta opción, que puede significar un cambio organizacional significativo. En esta sección, exponemos algunos de los factores que puede ser que necesites a la hora de ponderar los costos y beneficios del software libre en comparación con soluciones propietarias. 

martes, 29 de junio de 2010

Redo Backup: La GUI para Partclone

Ya hemos trabajado anteriormente en este blog con Partclone y Partimage, los cuales vienen incluidos en la distro SysrescueCD. Partclone es una herramienta en linea de comandos para hacer imágenes de nuestros discos y particiones, así como tambén restaurarlas

Navegando en Gnometips me encontré con Redo Backup. Según sus creadores Redo Backup constituye la interfaz gráfica de Partclone y la catalogan como fácil de usar, bonita y trabaja tanto con Windows como con Linux. Además de que este Live CD de tan solo 70 MB también puede grabarse en un disco USB desde el cual bootear y trabajar.

Para los que ya conocemos las bondades de Partclone y nos gusta hacerlo desde un terminal, nos vendría bien probarlo para que otros no tan avanzados puedan hacer sus copias de seguridad e imágenes de discos y particiones.

Visto en: Gnometips

lunes, 28 de junio de 2010

Gnome Proxy Applet

Proxy Applet es un applet para GNOME que permite cambiar  nuestra configuración de proxy de la red con un solo clic desde el panel de gnome, sin entrar en las preferencias de red y proxy de gnome. Está escrito en C puro y necesita por lo menos GNOME 2.26.

Está disponible su código fuente, y paquetes .deb para arquitecturas 32 y 64 bits.

How-To: Thumbnails (vista previa) para archivos CHM en Ubuntu

Este excelente How-To que he traducido para ustedes funciona a la perfección tal y como está aquí. Nos ayuda a resolver este indeseable aspecto de los iconos de los archivos .chm, al tiempo que nos ayuda a identificarlos pues, coloca como thumbnail la imagen de la portada del libro. Espero que sirva de ayuda...

Para alguien por ahí con los archivos chm, escribí un guión que tendrá soporte en miniatura de archivos chm a gnome. Con este script usted consigue los thumbnails de los archivos chm en el gestor de archivos Nautilus. La secuencia de comandos utiliza la mayor imagen de la página principal del chm para generar la imagen, por lo general esta será una imagen de la portada.

Primero tendrás que instalar las dependencias de este script:

      sudo apt-get install python-beautifulsoup python-chm imagemagick


Este es el script:


#!/usr/bin/env python

import sys, os
from chm import chm
from BeautifulSoup import BeautifulSoup

class ChmThumbNailer(object):
    def __init__(self):
        self.chm = chm.CHMFile()

    def thumbnail(self, ifile, ofile, sz):

        if self.chm.LoadCHM(ifile) == 0:
            return 1

        bestname    = None
        bestsize    = 0
        base        = self.chm.home.rpartition('/')[0] + '/'
        size, data  = self.getfile(self.chm.home)

        if size > 0:
            if self.chm.home.endswith(('jpg','gif','bmp')):
                self.write(ofile, sz, data)
            else:
                soup = BeautifulSoup(data)
                imgs = soup.findAll('img')
                for img in imgs:
                    name = base + img.get("src","")
                    size, data = self.getfile(name)
                    if size > bestsize:
                        bestsize = size
                        bestname = name
                if bestname != None:
                    size, data = self.getfile(bestname)
                    if size > 0:
                        self.write(ofile, sz, data)
        self.chm.CloseCHM()

    def write(self, ofile, sz, data):
        fd = os.popen('convert - -resize %sx%s "%s"' % (sz, sz, ofile), "w")
        fd.write(data)
        fd.close()

    def getfile(self,name):
        (ret, ui) = self.chm.ResolveObject(name)
        if ret == 1:
            return (0, '')
        return self.chm.RetrieveObject(ui)

if len(sys.argv) > 3:
    chm = ChmThumbNailer()
    chm.thumbnail(sys.argv[1], sys.argv[2], sys.argv[3])



Nombra el script de la siguiente manera: chm-thumbnailer.py, guárdalo en algún lugar (por ejemplo, en un directorio bin en su directorio personal) y hacerlo ejecutable:

     chmod a+x chm-thumbnailer.py

Entonces tendrás que dejar que gnome sepa sobre este script: 
(Nota: El código siguiente supone que ha guardado la secuencia de comandos como: /home/minombre/bin/chm-thumbnailer.py, pero se deberá cambiar con la ubicación real del script).

gconftool --type=string --set "/desktop/gnome/thumbnailers/application@x-chm/command"  "/home/myname/bin/chm-thumbnailer.py %i %o %s"

gconftool --type=bool --set "/desktop/gnome/thumbnailers/application@x-chm/enable"  "true"

Eso es todo. Ahora sólo tiene que utilizar Nautilus para navegar hasta una carpeta con los archivos chm en ella y de miniaturas se generarán.


How-To: Thumbnails (vista previa) para archivos OpenOffice en Ubuntu


La utilidad ooo-thumbnailer proporciona imágenes en miniatura para archivos de OpenOffice.org y Microsoft Office, como son documentos, presentaciones, hojas de cálculo, plantillas y dibujos.


Instalación:

     fraterneo@rainbow:~$ sudo apt-get install ooo-thumbnailer

Y para finalizar reiniciamos Nautilus:

     fraterneo@rainbow:~$ sudo killall nautilus

viernes, 25 de junio de 2010

How-To: Abir imagenes y archivos PDF en la consola (tty) con framebuffer

La consola de linux es mucho más que un fondo negro con letras blancas o verdes. Trabajar en la consola e investigar sobre ella es muy interesante y también conocer los programas para trabajar en ella. Algunos de esos programas interesantes y útiles basados en la consola son fbi y fbgs.

Estos programas aprovechan las bondades de framebuffer y nos permiten visualizar tanto imágenes como archivos en formato pdf.

Tanto en Ubuntu como en otras distros fbgs viene integrado con fbi, así que instalaremos este último:

En Ubuntu:

sudo apt-get install fbi


Es bastante simple usarlos los dos. Vamos, por ejemplo, a tty1 (Ctrl+Alt+F1):

sudo fbi nombre_imagen.png

sudo fbgs nombre_archivo.pdf


Fuente: Linuxers
Framebuffer Howto

jueves, 24 de junio de 2010

How-To: Bloqueo de sitios web y contenido con Squid3

En estos días hablar de productividad y uso de internet es una disyuntiva. Hay cierta incertidumbre a la hora pensar en que los usuarios tendrán acceso a internet y la productividad que reporten, a menos que necesiten trabajar directamente en la red.

En los casos en que el acceso a internet y la navegación por sitios web que no son de ayuda para el usuario ni para la empresa, sino que le quitan tiempo y reducen su capacidad de trabajo por estar distraídos y pendientes del correo, del facebook, etc. la mejor opción es configurar un proxy caché con bloqueo de sitios y contenido de palabras en las URL.

Luego de haber configurado Squid3 ya sea en nuestro servidor proxy transparente o de forma no transparente, podemos definir patrones en un archivo de texto plano como los siguientes:

admin@server:~$ sudo nano /etc/squid3/sitiosdenegados

www.facebook.com
www.hi5.com
www.hotmail.com
porn
xxx
adult
www.sitionodeseado.net
www.otrositio.com

Luego editamos el archivo squid3.conf para agregar la Lista de Control de Acceso y la Regla de Control de Acceso:

admin@server:~$ sudo nano /etc/squid3/squid.conf

acl sitiosdenegados url_regex "/etc/squid3/sitiosdenegados"
http_access allow redlocal !sitiosdenegados

Debemos tomar en cuenta que muchos sitios inocentes serán bloqueados porque sus URL contienen pablabras que hemos definido en sitiosdenegados, y para que esto no suceda lo que haremos es crear un fichero con la lista de los sitios que necesitamos que no sean bloqueados por el proxy.

admin@server:~$ sudo nano /etc/squid3/sitiosinocentes

Y como en el caso de los sitios denegados, tambien crearemos su Lista de Control de Acceso y su Regla:

acl sitiosinocentes url_regex "/etc/squid3/sitiosinocentes"
http_access allow all sitiosinocentes

Para finalizar reiniciamos el daemon de squid3:

admin@server:~$ sudo  /etc/init.d/squid3 restart


Fuente: Alcancelibre

Internet podria colapsar a causa de un fallo





En 1998 un ciberpirata dijo ante el Congreso de los EEUU que podía derrumbar internet en 30 minutos aprovechando una debilidad que causa desconexiones al desviar información. Y hoy el error sigue vigente.

Por Peter Svensson, The Associated Press

En 2003 el gobierno de George W. Bush concluyó que encontrar una solución a este problema era una de las "prioridades vitales" de los Estados Unidos, pero al pasar de los años, muy poco ha cambiado.

Esta falla todavía causa estragos cada año. Aunque la mayoría de los casos son sin malicia y se resuelven rápidamente, el problema puede ser explotado por algún hacker para espiar información o para boicotear páginas de internet. 

Mientras tanto, nuestra dependencia a la red sigue en aumento y la próxima desconexión podría afectar empresas, al gobierno o a cualquiera que necesita internet para funcionar normalmente.

Las desconexiones son causadas por la forma algo al azar en la que el tráfico pasa entre las compañías que transmiten la información del internet. Este tipo de desconexiones también son llamadas "hijackings" (secuestros en inglés), aunque la mayoría no son causadas por criminales ni buscan la destrucción. En realidad son un problema derivado de la apertura del internet.

"Es horrible cuando miras un poco más allá de la fachada", dijo Earl Zmijewski, gerente general en Renesys, que da seguimiento al desempeño de las rutas de información del internet. "Me sorprende que cada día cuando llego al trabajo siga funcionando".

Cómo funciona
Cuando se envía un correo electrónico, se ve una página de internet o se realiza cualquier otra actividad en línea, la información que las personas leen y transmiten pasa de un proveedor a otro, a veces en una cadena muy larga. 

Por ejemplo, si alguien se conecta a facebook, su información podría pasar de su proveedor de internet a una compañía como Level 3 Communications, que opera una red internacional de líneas de fibra óptica que transmiten información en largas distancias. A su vez la empresa podría pasar esta información a un proveedor que está conectado directamente a los servidores de facebook.

El meollo del asunto es que cada proveedor define cómo enviar la información basándose sólo en lo que los otros proveedores implicados en esta cadena dicen y no en una perspectiva general. 

Es como si un chofer tuviera que llegar de Filadelfia a Pittsburgh sin un mapa y circulara guiado sólo por las señales de tráfico que encontrara por el camino. Esto puede funcionar, pero ¿qué pasa si las señales no fueron colocadas por una autoridad? o ¿si una señal indica la dirección incorrecta? Seguramente se pierde.

Esto es esencialmente lo que ocurre cuando una ruta de internet es interrumpida. El sistema no tiene medios seguros y automáticos para verificar que la información de las rutas es correcta y los datos pueden ser dirigidos a algún proveedor que no los espera. Generalmente estos proveedores no saben qué hacer con la información inesperada y la desechan por lo que todo cae en un "hoyo negro".

Un caso en 2008
Un ejemplo de estas desconexiones ocurrió en 2008 cuando Pakistan Telecom intentó cumplir una orden del gobierno para evitar el acceso a YouTube desde Pakistán y envió intencionalmente las solicitudes de videos de los usuarios paquistaníes a hoyos negros.

Sin embargo, la compañía también envió un mensaje accidental al proveedor internacional de YouTube que decía algo como: "Soy la mejor ruta para YouTube. Envíame todo el tráfico de YouTube"

El proveedor de la conexión aceptó el mensaje de enrutamiento y lo pasó a otros proveedores en el mundo que comenzaron a enviar todas las solicitudes de videos de YouTube a Pakistan Telecom. En poco tiempo incluso los usuarios en Estados Unidos no podían ver sus videos y esta desconexión duró varias horas.

"El 'hijacking' es muy parecido al robo de identidad. Alguien en el mundo afirma que eres tú", dijo Todd Underwood, que trabajó para Renesys durante el corto causado por Pakistan Telecom.

Difícil solución
Pero a diferencia de los gusanos de internet que se descubren y arreglan fácilmente, el sistema de enrutamiento ha permanecido sin cambios por más de una década y aunque hay progreso, no existe un interés entre todos los especialistas para lograr un remedio permanente. Los proveedores consideran esta debilidad del sistema como el precio que hay que pagar por la estructura abierta y flexible del internet.

Peiter Zatko, integrante del grupo de especialistas llamado L0pht, fue el ciberpirata que declaró ante el Congreso de Estados Unidos en 1998 que podía usar la vulnerabilidad del sistema para desactivar la internet en media hora. 

Zatko, quien trabaja ahora para la Agencia de Proyectos Avanzados de Investigación del Pentágono, ha dicho en los últimos años que la falla sigue latente, pero la diferencia es que ahora se llevaría varias horas en vez de 30 minutos, en parte por el mayor número de proveedores de internet que deberían ser boicoteados.

"Es el problema de todos porque afecta la estabilidad de internet, pero al mismo tiempo no es el problema de nadie porque a nadie le pertenece" dijo Doug Maughan, que trata el asunto en el Departamento de Seguridad Nacional de Estados Unidos.

Para otros el control podría limitar las nuevas invenciones que han caracterizado a la red.

"Temo que la innovación en internet se reduciría si se necesita una autoridad central como intermediaria", dijo Pieter Poll director de tecnología en Qwest Communications International. "Y creo que pocos en el ramo están interesados en esto".

Mientras tanto, los administradores de las redes enfrentan a los hackers y las desconexiones en los sitios con medios un poco anticuados. 

Simplemente toman el teléfono y llaman a sus colegas cerca del lugar donde ocurrió el "hijacking" para que cambien manualmente la información de enrutamiento, según Tom Daly, director técnico de Dynamic Network Services Inc.

"Hacemos algunas llamadas telefónicas y rezamos", dijo. "Más o menos eso es todo".

Fuente: Infobae

miércoles, 23 de junio de 2010

How-To: Proxy Cache Transparente en Ubuntu Server LTS 10.04 con Squid3






Ver también: Squid Proxy Cache más simple aún


Squid es un proxy caché que soporta los protocolos HTTP, HTTPS, FTP y muchos otros. Un proxy reduce el uso de ancho de banda y mejora los tiempos de respuesta haciendo un caché y re-uso de páginas web solicitadas frecuentemente. Squid tiene un amplio control de acceso y acelera el servidor. Puede correr en casi todos los sistemas operativos, incluyendo Windows y su licenciamiento es GNU GPL.

1. Instalar Ubuntu Server LTS 10.04, incluyendo LAMP si lo deseas.

2. Configurar las interfaces de red manualmente y ponerlas estáticas.

      admin@server:~$ sudo nano /etc/network/interfaces

auto eth0
iface eth0 inet static
address 192.168.1.250
netmask 255.255.255.0
network 192.168.1.0
broadcast 192.168.1.255
gateway 192.168.1.88

post-up iptables-restore < /etc/iptables.up.rules

auto eth1
iface eth1 inet static
address 192.168.2.1
netmask 255.255.255.0
network 192.168.2.0
broadcast 192.168.2.255

*En donde eth0 será para conectar el acceso a Internet (Cable, DSL, etc.) y eth1 para nuestra red local.

3. Instalar Web Admin (webmin) (opcional).

admin@server:~$ wget http://prdownloads.sourceforge.net/webadmin/webmin_1.510-2_all.deb
admin@server:~$ dpkg -install webmin_1.510-2_all.deb
admin@server:~$ sudo apt-get -f install

https://localhost-IP ADDRES:10000

*Hay que asegurarse de darle permisos en IPTABLES para acceder de forma remota al Webmin.

4. Instalar ClamAV y ClamAV-freshclam.

      admin@server:~$ sudo apt-get install clamav clamav-freshclam

5. Instalar squid.

      admin@server:~$ sudo apt-get install squid3

Editar el archivo de configuracion de squid3 con nuestro editor favorito.

      admin@server:~$ sudo nano /etc/squid3/squid.conf

Y configurar la transparencia y la red local que usará el proxy:

http_port 3128 transparent
acl nuestra_red src 192.168.2.0/24
acl redlocal src 127.0.0.1/255.255.255.255
http_access allow nuestra_red
http_access allow redlocal

Donde 192.168.2.0/24 es el rango de IP de la red local.

Probablemente tambien necesitaremos ajustar el tamaño de la cahé:

cache_dir ufs /var/spool/squid3 7000 16 256

Aquí el primer numero denota el tamaño de la caché en megabytes. Guardamos los cambios y reinicamos el demonio squid3:

      admin@server:~$ sudo /etc/init.d/squid3 restart

6. Editar el archivo /etc/sysctl.conf

      admin@server:~$ sudo nano /etc/sysctl.conf

Descomentar las líneas que habilitan el redireccionamiento de paquetes para IPv4 e Ipv6:

net.ipv4.ip_forward = 1
net.ipv6.conf.all.forwarding = 1

7. Editar la configuración de IPTABLES para NAT y FILTER.

      admin@server:~$ sudo nano /etc/iptables.up.rules

NAT:

-A PREROUTING -i eth1 -p tcp -m tcp --dport 80 -j DNAT --to-destination 192.168.2.1:3128
-A PREROUTING -i eth1 -p tcp -m tcp --dport 80 -j REDIRECT --to-port 3128
-A POSTROUTING -s 192.168.2.0/24 -o eth0 -j MASQUERADE

FILTER:

-A INPUT -i lo -j ACCEPT
-A INPUT -m state -i eth0 -state REALATED,ESTABLISHED -j ACCEPT
-A INPUT -i eth1 -j ACCEPT
-A INPUT -p tcp -m tcp --dport 22 -j ACCEPT # permitir ssh usando putty
-A INPUT -p tcp -m tcp --dport 10000 -j ACCEPT # permitir acceso a webmin
-A INPUT -p tcp -m tcp --dport 110 -j ACCEPT # permitir pop3
-A INPUT -p tcp -m tcp --dport 25 -j ACCEPT # permitir smtp
-A INPUT -j LOG
-A INPUT -j DROP
-A FORWARD -i eth1 -j ACCEPT
-A OUTPUT -o lo -j ACCEPT
-A OUTPUT -o eth1 -j ACCEPT
-A FOWARD -o eth1 -j ACCEPT
-A FORWARD -s 192.168.2.0/24 -o eth0 -j ACCEPT
-A FORWARD -d 192.168.2.0/24 -m state --state ESTABLISHED, REALTED -I eth0 -j ACCEPT

8. Editar el archivo /etc/rc.local

      admin@server:~$ sudo nano /etc/rc.local

iptables -t nat -A POSTROUTING -s 192.168.2.0/24 -o eth0 -j MASQUERADE

9. Reiniciar el servidor.

      admin@server:~$ sudo shutdown -r now

10. Finalmente, configurar los clientes (computadoras de la red local) con dirección IP estática y como puerta de enlace o gateway la IP del servidor. Debemos asegurarnos de que la dirección IP en los clientes esté en el mismo rango que se configuró en el paso 2. 

Fuente: Ubuntu Geek

Libro Libre: Alcance Libre: Implementacion Servidores GNU/Linux Junio 2010

Está disponible para su descarga el libro Implementación de Servidores GNU/Linux, en su más reciente actualización al 19 de junio de este año, de Joel Barrios Dueñas.

Es un excelente libro tanto para principiantes como para expertos. Cubre todos los tópicos desde lo más básico hasta servicios que requieren de mucha labor.

martes, 22 de junio de 2010

Socialismo Cognitivo y Software Libre

"...porque cuando repartes tierra le quitas a uno para darselo a otro. Cuando repartes conocimiento no le quitas nada a nadie; el que lo tiene lo tiene, lo sigue manteniendo a pesar de que se lo das a otro..."
Ibarranet

Juan Carlos Rodriguez Ibarra y el Software Libre



En este país hace falta por lo menos uno que piense y hable así (de izquierda o de derecha).


POLITICOS Y FUNCIONARIOS: PONGANSE LAS PILAS, LA LIBERTAD DE 1844 SIGUE SIENDO BURLADA!!


Vía: Bulma

lunes, 21 de junio de 2010

Mobile Media Converter para Ubuntu GNU/Linux

El Mobile Media Converter es un conversor libre de video y audio para la conversión entre los medios de comunicación populares de escritorio formatos como MP3, Windows Media Audio (WMA), Ogg Vorbis Audio (ogg), la onda de audio (WAV), vídeo MPEG, AVI, Windows Media Video (wmv), Flash Video (FLV), QuickTime Video (mov) y se utilicen dispositivos móviles/teléfonos formatos como audio AMR (AMR) y video 3GP. iPod / iPhone y video de PSP MP4 compatibles son compatibles. 

Además, puede quitar y añadir nuevos formatos o dispositivos a través de Internet. Una integrada downloader YoutTube está disponible para descarga directa y la conversión a cualquiera de estos formatos. Puede recortar clips para la creación de ringtone o cualquier otro propósito y recortar tus vídeos para la eliminación de arriba/abajo barras de color negro o demás partes no deseadas de la imagen. Además, los subtítulos incrustados se pueden codificar en el video para ver películas o programas con subtítulos en dispositivos que no los soporta. 

El programa tiene un muy fácil de usar y simple GUI (Graphical User Interface) que ayuda incluso a los aficionados de usuario más . La mayoría de las veces, los únicos datos que debe introducir es el archivo de entrada (s) o sólo arrastrar 'n' soltar el archivo de entrada (s)! El 3GP y AMR son utilizados por los teléfonos móviles para MMS, vídeo y grabaciones de sonido, etc.

Seguridad: Microsoft Windows vs. GNU/Linux

Como en sociología, en materia de seguridad existen aquellos que hacen énfasis en el individuo (el usuario) y otros que inclinan la balanza hacia las determinaciones estructurales (el sistema operativo). El primero de ellos es el caso de este artículo de eWeek que me llevó a escribir esa respuesta.

En realidad, el individuo actúa condicionado por la estructura; esto quiere decir que, si bien tiene cierto grado de autonomía, su margen de acción es limitado y condicionado por la estructura. En lo que a seguridad respecta, ocurre lo mismo. Si bien el usuario tiene parte de responsabilidad en cuanto a la seguridad del sistema, existen condicionamientos estructurales que limitan y condicionan el accionar de los usuarios.

Esta reflexión cuasi-filosófica viene al caso porque es muy común escuchar entre los defensores de Windows que, en realidad, toda la culpa es de los usuarios y/o de los programas de terceros (que vienen llenos de agujeros de seguridad). La pregunta que me surje es: ¿ese "analfabetismo" informático acaso no es incentivado y provocado por Microsoft? ¿acusar a los desarrolladores de programas de terceros no es realmente un chivo expiatorio? La verdadera pregunta interesante de contestar es: ¿por qué esto no sucede en Linux? Veamos cuáles son los 10 argumentos más utilizados por Microsoft y sus defensores para plantear que las fallas de seguridad de Windows, en verdad, no son culpa de Microsoft. La culpa siempre la tienen los otros...

1. Agujeros de seguridad de aplicaciones de terceros

Las aplicaciones de terceros pueden causar brotes de seguridad importantes en una PC con Windows. Los programas de otros fabricantes no siempre cuentan con medidas de seguridad adecuadas para garantizar que los datos se mantengan seguros. Para mal de males, las aplicaciones no siempre se actualizan con la frecuencia necesaria. Eso es un problema. Los hackers son plenamente conscientes de que algunos programas son más fáciles de romper que otros, por lo que atacan a los blancos más fáciles.

The Linux way: 
No me deja de llamar la atención lo ingratos que son los muchachos de Microsoft: para limpiar su prestigio le echen la culpa a los desarrolladores de programas para Windows. No es que Windows sea inseguro, sino que los programas que otras empresas desarrollan y que corren en Windows tienen muchos agujeros de seguridad. La verdad es que, en todo caso, esa respuesta sigue esquivando la pregunta: ¿por qué esos programas (para Windows) tienen más agujeros de seguridad? ¿Acaso los programadores de programas para Windows son unos idiotas? No, el problema está en el modo en que se escriben los programas más populares de Windows, siendo casi todos software privativo. Por otra parte, está la cuestión de que, en Linux, los programas se actualizan a través del sistema de repositorios.


2. Software desactualizado

Generalmente, las aplicaciones de otros fabricantes son actualizados por el propio desarrollador. Sólo hay un problema: los usuarios no siempre actualizan los programas. Todos hemos estado allí. Estamos en medio de algo importante y un programa que acabamos de abrir nos pide que lo actualicemos. En lugar de esperar a la actualización y, potencialmente, ser obligado a reiniciar el equipo, lo dejamos para otro momento. Esto puede parecer la mejor opción en ese momento, pero realmente no lo es. Si la actualización era una revisión de seguridad, estaríamos poniendo en riesgo nuestra compu por una cantidad de tiempo aún mayor de lo que deberíamos. Si no actualizamos nuestro programas de terceros, no hay mucho que Microsoft puede hacer para protegernos.

The Linux way: 
Las actualizaciones se realizan a través del sistema de repositorios. Esto tiene numerosas ventajas: se realiza en forma centralizada, desde una fuente segura, en segundo plano (sin interferir con lo que el usuario está haciendo, incluso cuando se trate de la actualización del programa que está usando) y generalmente no requiere que el usuario reinicie el sistema. Además, al haber sido construido en forma modular, Linux puede ser actualizado "por partes": no hace falta esperar a una actualización del kernel para corregir un bug del arranque, del entorno X, etc.

3. Antivirus y anti-spyware desactualizados

La ejecución de programas antivirus y anti-spyware que no esten totalmente al día es casi tan inútil como no correr nada en absoluto. En la medida en que se van descubriendo nuevos agujeros de seguridad, los fabricantes van lanzando actualizaciones de sus programas para mantener seguros los datos del usuario. Por desgracia, los proveedores no pueden obligar a los usuarios a actualizar sus programas. Así, un usuario que opta por esperar o cancelar la actualización se pone en riesgo de ser afectado por un problema que podría evitarse fácilmente con la ayuda de un sencillo parche. Es cierto, Microsoft debería haber hecho un mejor trabajo para hacer de Windows un SO más resistente a virus y spyware, pero también necesita algo de ayuda de los usuarios.

The Linux way:
Una de las primeras cosas que un usuario novel de Linux descubre es que no parece ser necesario usar un antivirus. Llama la atención porque, a pesar de ello, Linux es considerado un sistema mucho más seguro que Windows. La realidad parece indicar que los antivirus, si bien pueden ayudar a controlar o evitar algunos de los efectos de los programas malignos, no atacan las causas y condiciones que permiten su reproducción y masividad en los sistemas Windows. Además de que existen muchos menos programas malignos (virus, malware, etc.) para Linux, está demostrado que casi ninguno de ellos llega a comprometer seriamente el SO. Sé que puede resultar contra-intuitivo para un usuario de Windows pero ningún antivirus hace a tu SO más seguro. En todo caso, la necesidad de un antivirus revela los huecos y fallas de seguridad del SO anfitrión. 

4. Los usuarios abren archivos adjuntos que no deberían abrir

Microsoft no debería ser culpado por un usuario que abre un archivo adjunto que él o ella no debe abrir. En otras palabras, no se puede culpar a Microsoft de la estupidez de los usuarios de Windows. Si alguien cree realmente que se ha ganado la lotería, que existe la fórmula mágica para agrandar sus partes pudendas, etc. se merece ser infectada por un virus. Todos sabemos que a menos que estemos esperando ese archivo adjunto proveniente, claro está, de un origen conocido, nunca se recomienda abrir archivos adjuntos. Durante años, los hackers han estado utilizando el correo electrónico para aprovecharse de los usuarios que nunca se enteraron de que abrir un archivo adjunto de correo electrónico de un remitente desconocido es una mala idea. Por mucho que los proveedores de seguridad y Microsoft han intentado aumentar la concienciación sobre esta cuestión, los usuarios simplemente no están escuchando. 

The Linux way: 
Ehh... no se puede ejecutar ningún archivo adjunto. Fácil. Para ejecutar un archivo, no basta con hacer "doble click". El usuario tendrá que guardarlo, darle permisos de ejecución y, recién ahí, podrá ejecutarlo. Por otra parte, gracias a la enorme comunidad que se construyó alrededor de Linux, sus usuarios son educados continuamente sobre los potenciales peligros de otorgar permisos de ejecución a programas recibidos de fuentes no confiables.

5. Los usuarios navegan por sitios peligrosos

En los últimos años, compañías como Google han ayudado a proteger a los usuarios para que naveguen sólo en sitios seguros. Pero eso no evita que los usuarios empedernidos usen Internet Explorer, Firefox o cualquier otro navegador para navegar en sitios que contienen archivos maliciosos. Asimismo, existen víctimas de ataques de phishing en sitios que se parecen a una página real, por ejemplo la de correo electrónico o una web bancaria, en la que los usuarios llenan sus datos creyendo que se trata de la página real, cuando en realidad no lo es. Un enorme número de personas siguen navegando por sitios que causan estragos en sus equipos o sus vidas. Esperemos que después de ser quemado una vez, estos idiotas aprenden la lección.

The Linux way: 
Es muy difícil evitar que los usuarios naveguen por páginas con contenido malicioso, pero existen algunos aspectos estructurales que influyen en el accionar de los usuarios. En primer lugar, los usuarios Linux no tienen que buscar ni instalar programas "truchos", ni buscar cracks o seriales en páginas peligrosas. Además, los usuarios Linux rara vez están tan desesperados por remover el presunto virus como para bajarse e instalar cualquier supuesto "removedor" del virus desde fuentes inseguras o no confiables. En segundo lugar, los exploradores de internet que vienen por defecto en todas las distribuciones de Linux son mucho más seguros que el Internet Explorer. 

6. ¿Dónde están todas las contraseñas?

Algunos usuarios hacen demasiado fácil para los hackers maliciosos conseguir acceso físico a sus equipos. Sin una contraseña para controlar el acceso a una máquina, cualquier persona puede sentarse en el escritorio de alguien, arrancar el PC y empezar a robar información confidencial. En la actualidad, las empresas de todo el mundo requieren que los usuarios protejan con contraseña sus máquinas, para que los criminales no puedan tener acceso a sus datos. ¿Por qué la gente no aplica esa lección a la protección de sus PCs hogareñas? Sí, podría ser un dolor que escribir una contraseña cada vez que la compu se "despierta", pero ayuda a mantener los datos confidenciales.

The Linux way: 
Las distribuciones Linux vienen configuradas de tal modo que para realizar acciones potencialmente peligrosas se le pide la contraseña de administrador al usuario. Por último, casi todas bloquean el teclado luego de pasados unos minutos sin actividad. La limitación de los permisos de ejecución es el campo en el que las últimas versiones de Windows han realizado sendos progresos pero todavía están a años luz de Linux.

7. Las contraseñas están allí, pero ¿por qué son todas iguales?

Tener una contraseña es un gran primer paso, pero tener la misma contraseña para todos hace que tu sistema y la información almacenada tanto en tu sistema como en la web sea muy difícil de proteger. Puede ser muy cómodo pero no es muy seguro que digamos. Cualquier hacker luego de obtener una de tus constraseñas lo primero que va a hacer es probar si funciona en otro de los servicios que usás. Si es así, tendrá acceso a todo lo que él quiera. Las contraseñas deben ser duras de roer y varíar de un sitio a otro.

The Linux way: 
En Linux todas las contraseñas se encriptan y almacenan en un Keyring. Para que las aplicaciones puedan acceder a estas contraseñas, es necesario introducir la contraseña principal de tu Keyring. De ese modo, no tenés que recordar miles de contraseñas, sólo una. 

8. Correr en modo de administrador

Un error común es ejecutar Windows en modo administrador. Esto puede hacer que el uso de la PC sea más conveniente, pero también da acceso a hackers maliciosos para que hagan lo que quieran en el equipo. Algunos expertos en seguridad dicen que si la gente se acostumbrara a utilizar usuarios limitados, se podrían eliminar muchos de los problemas de seguridad que afectan actualmente al usuario promedio de Windows. Por su parte, Microsoft podría hacer un mejor trabajo de informar al público sobre los peligros del modo de administrador. Pero, de nuevo, si un usuario desea ejecutar como administrador, ¿qué puede hacer Microsoft realmente para detenerlo?

The Linux way: 
Una vez más, los instaladores de las diferentes distribuciones Linux coinciden en una cosa: todos obligan a crear un usuario con servicios limitados, que será el usuario de la máquina, y obligan también a ingresar una contraseña de administrador. De ese modo, se puede iniciar sesión con un usuario corriente, con permisos de ejecución limitados, y dentro de ella, se podrán ejecutar algunas acciones potencialmente peligrosas sólo si antes se ingresa la contraseña del administrador (evitando así que haya que loguearse como administrador, etc.). Esta forma de hacer las cosas limita enormemente el potencial destructivo de un programa malicioso pero brinda al sistema una enorme flexibilidad.

9. Actualizaciones de Windows

Las actualizaciones de Windows podrían significar la diferencia entre la seguridad y un brote de seguridad en la computadora del usuario. Tan molestas como son, las actualizaciones de Windows son parte integral de la seguridad de tu compu. Cada vez que Microsoft lanza parches de su sistema operativo, los usuarios deben estar listos y dispuestos para actualizar Windows tan pronto como esta actualización está disponible. Si no, están propensos a ponerse en riesgo. Microsoft sólo puede recomendar que los usuarios descarguen una actualización de seguridad y proporcionar parches siempre que puede. Lo que los usuarios decidan hacer después depende de ellos.

The Linux way: 
Como vimos, las actualizaciones en Linux son mucho más transparentes para el usuario. A eso se le suma el hecho de que, al ser un sistema modular, Linux puede ir actualizando sus partes sin tener que esperar a un "major update". Además, Linux es reconocido por lanzar actualizaciones y parches (incluidos los de seguridad) en forma más rápida que su contraparte de Redmond.

10. Educación

Es fácil culpar a Microsoft por la seguridad frente a problemas de usuarios, pero a veces, los usuarios tienen que darse cuenta fácilmente de que la educación podría ayudarlos a evitar muchos de los problemas que los afectan cotidianamente. Con la educación para una mejor seguridad, la red sería un lugar más seguro, gracias al menor número de usuarios que busquen ver sitios maliciosos. Abrir archivos adjuntos infectados sería menos preocupante, ya que los usuarios sabrian cómo lidiar con ellos. Con una mejor educación, habría, sin duda menos brotes, lo que significaría un entorno de trabajo más seguro para todos.

The Linux way: 
Como vimos, muchos de los problemas que en Windows se consideran como una "falta de educación en materia de seguridad por parte de los usuarios" son también problemas estructurales provocadas por fallas del sistema. La combinación de ambos, hacen de Windows un sistema muy inseguro. En Linux, a diferencia de lo que se cree, no todos los usuarios son hackers, lo que está demostrado por la creciente popularidad de distros "para novatos" como Ubuntu y otras. No obstante, es cierto que existe una mayor concienciación en materia de seguridad, pero eso se debe a que Linux promociona una actitud activa por parte de los usuarios e incentiva su curiosidad para averiguar "cómo funcionan las cosas". En Windows, en cambio, se busca siempre la pasividad del usuario y el ocultamiento del verdadero funcionamiento de las cosas. Del mismo modo, no se hace nada por "educar" al usuario. 

Síntesis.

Microsoft sin duda no es inocente de los problemas de seguridad que afectan a Windows o de su software. Pero no siempre tiene la culpa. Y es importante recordar eso. Esto es lo que dicen los "defensores" de Windows.

En verdad, el accionar de los usuarios no tiene lugar en el limbo ni puede considerarse ahistóricamente. Los usuarios de Windows actúan con cierta autonomía, pero siempre condicionados y limitados por las características del SO y fueron "educados" en las prácticas que éste permite y promociona. 

En ese sentido, en Linux se da la combinación de lo mejor de estos mundos: una comunidad muy fuerte, que ayuda en la concienciación de sus miembros en materia de seguridad y otras materias; un sistema operativo que generalmente es distribuido con configuraciones más restrictivas y seguras, pero al mismo tiempo más flexibles (imposibilidad de ejecutar archivos adjuntos, usuario principal con privilegios limitados, etc.); y con características propias que hacen al sistema más seguro (repositorios que permiten la instalación desde fuentes confiables, actualizaciones más rápidas y seguras, construcción "modular" y multi-usuario, etc.).

Fuente: Usemos Linux

viernes, 18 de junio de 2010

¿Es bueno o malo que haya tantas distribuciones GNU/Linux?

Por supuesto que es bueno! Para tener una idea solo basta ver en lo distintos que somos los seres humanos en cuanto a gustos. Y eso sin tomar en cuenta las necesidades tan variadas que nos surgen cada día.

Pensemos por un momento que solo existe una distribución GNU/Linux. Pensemos también que sólo existe un sabor de refresco embotellado. Sería inaceptable para nosotros condenarnos toda la vida a tomar el mismo sabor de refresco, no porque únicamente nos guste ese, sino porque no existe otra alternativa.

De esto se trata. El simple hecho de que GNU/Linux sea Software Libre ha creado esta amplia gama de distribuciones equipadas para cada necesidad o gusto (uso doméstico, producción, servidores, etc.).

Según Wikipedia: “Los usuarios vieron en Linux una alternativa a los sistemas operativos DOS, Microsoft Windows en la plataforma PC, Mac OS en Apple Macintosh y las versiones de uso bajo licencia (de pago) de UNIX. La mayoría de estos primeros usuarios se habían familiarizado con el entorno UNIX en sus trabajos o centros de estudios. Estos adoptaron GNU/Linux por su estabilidad, reducido (o nulo) coste y por la disponibilidad del código fuente del software incluido”.

Las distribuciones eran originalmente una cuestión de comodidad para el usuario medio, evitándole la instalación (y en muchos casos compilación) por separado de paquetes de uso común, pero hoy se han popularizado incluso entre los expertos en éste tipo de sistemas operativos (UNIX / Linux). Si bien, históricamente, Linux estuvo mejor posicionado en el mercado de los servidores, distribuciones centradas en la facilidad de instalación y uso, tales como Fedora, Mandriva, Opensuse, Knoppix y Ubuntu, entre otras, han logrado una mayor aceptación en el mercado doméstico”.

Esto nos deja con una idea de lo positivo que esto ha sido. Es esa variedad, esa alternativa que nos permite optar por algo diferente y mejor en muchos sentidos y que trae consigo valores añadidos.

Las distribuciones nos permiten disfrutar a todos de algo que en esencia es lo mismo pero con variaciones en la receta que se adaptan a cada quien (niños, adultos, ingenieros, diseñadores) y le brindan una oportunidad para realizar el sueño de elegir el refresco de su gusto.

Los inicios de Internet en Republica Dominicana

HACIA 1995 CODETEL DOMINABA EL MERCADO, TRICOM BUSCABA ABRIRSE PASO Y AACR NO SE QUEDABA ATRÁS. EN ESO SE DECIDIÓ TRAER INTERNET AL PAÍS, Y EMPEZÓ LA COMPETENCIA.


Tener la oportunidad de asistir a un evento como el conversatorio “Quince años de Internet Dominicano”, organizado por la Comisión Nacional de la Sociedad de  Información y el Conocimiento junto a Resources for an Open Community Knowledge (ROCK), fue la oportunidad de abrir una página poco conocida de la historia de la tecnología “a la criolla”, junto a protagonistas como Marcos Troncoso, quien era en ese momento presidente de Tricom.

Troncoso tuvo a bien, dentro del panel dedicado a “inicios de Internet en República Dominicana”, recordar que el “espíritu de competencia” de las empresas telefónicas fue lo que permitió que la red llegase temprano -en comparación con otros países- a nuestra media isla, a mediados del 1995, cuando las tres principales telefónicas de esa época iniciaron la oferta de Internet dial-up.

Aquí entraron a colación todos los detalles que fueron tejiéndose previo a esto, como la dificultad que tuvo para su empresa entrar a participar en el mercado de las telecomunicaciones.

Por esto, insiste, tal competencia debe ser preservada y más aún, debe propiciarse la entrada de nuevos actores que proporcionen nuevos firmamentos en el universo dominicano.

Un comentario similar tuvo Álvaro Nadal, quien en ese momento ocupaba el puesto de vicepresidente ejecutivo de All América Cables and Radio (AACR), empresa que la historia registra como la primera en abrir un nodo local de Internet, hacia el 5 de mayo de aquel año.

Al cabo de esos 3 meses, continúa, ya se contaba con 100 cuentas, principalmente de personas vinculadas con el área de los negocios e individuos que iban aprendiendo el uso de esta herramienta que fue sustituyendo todas las redes de mensajería electrónica hasta nuestros días.

Un testimonio interesante también lo contó Evelyn Lied, a sazón parte del equipo de ventas de AACR, para quien, en esos momentos, Internet parecía más a “sueño de ingeniero” que a producto económicamente rentable. Por el otro lado, Codetel también estaba en lo suyo, adquiriendo una plataforma provista por una empresa canadiense llamada Solect, la cual fue recomendada por Sprint. Esencialmente eran servidores SUN, con un banco de Modems Motorola con velocidad máxima de 28.8 kbps. La conectividad internacional a Internet fue inicialmente de 128 kbps. El servicio se anunció en junio del 1995 y salió al mercado en el mes de julio de ese año.

Mite Nishio refiere en su portal que, si bien AACR fue la primera en ofrecer el servicio, el mérito de haber instalado el primer nodo local de Internet corresponde a Tricom, cuya plataforma les fue vendida por la empresa puertorriqueña Caribbean Internet Services.

El banco de Modems, explica Nishio, tenía una velocidad máxima de 14.4 kbps y la conectividad internacional hacia la red Internet era de 64 kbps.

UNA “GUERRA FRÍA” A LA DOMINICANA
Un elemento que “sazonó” estos primeros meses, fue la “guerra declarada” entre Tricom y Codetel. Mite Nishio recuerda que cada empresa “quería sacar sus productos y servicios primero que el otro” y ahí ser el primero en ofrecer Internet se convirtió “en un símbolo de supremacía para ambas empresas”, que era, “guardando las distancias”, similar a la carrera espacial entre Rusia y Estados Unidos.

Netbeans 6.9: Entorno de desarrollo integrado multiplataforma para Java, PHP, C/C++, Ruby

NetBeans IDE 6.9 ™ introduce el compositor JavaFX, una herramienta de diseño visual para construir aplicaciones JavaFX interfaz gráfica de usuario, similar a la del constructor Swing GUI para aplicaciones Java SE. 

Con el compositor JavaFX, los desarrolladores pueden crear rápidamente, visualmente editar y depurar aplicaciones dinámicas de Internet (RIA) y los componentes se unen a diversas fuentes de datos, incluidos los servicios Web. NetBeans 6.9 también características de interoperabilidad OSGi para NetBeans plataforma de aplicaciones y apoyo al desarrollo de OSGi paquetes con Maven. Con soporte para OSGi y normas Swing, la plataforma NetBeans ahora es compatible con el estándar de interfaz de usuario kit de herramientas y el sistema de módulo estándar, ofreciendo una combinación única de normas para, rich-client desarrollo modular. 

Otras características notables de esta versión incluyen soporte para JavaFX SDK 1.3, PHP Zend Framework, y Ruby on Rails 3.0, así como mejoras en el editor de Java, Java depurador, seguimiento de problemas, y mucho más. NetBeans IDE 6.9 está disponible en Inglés, portugués brasileño, japonés y chino simplificado.

jueves, 17 de junio de 2010

Demonios (Daemons) en GNU/Linux



Si muchos de ustedes se preguntan que es un  Demonio, pues les comento que este es un término muy  particular y  común de  los sistemas UNIX que  se refiere a  un tipo proceso que se ejecuta en segundo plano de manera continua e indefinida  sin la intervención del usuario. 

De hecho si detenemos o matamos uno de estos procesos este se reanudará  y continuará ejecutandose. A pesar de  todo esto es posible  controlarlos   para que trabajen según nuestros designios. 

La palabra  Demonio es un acrónimo que viene del inglés Daemon a partir de las siglas de Disk And Execution MONitor

En sistemas UNIX  como GNU/Linux, los Demonios suelen comenzar a ejecutarse al inicio del arranque del sistema con la finalidad de  proveer algún  tipo de servicio como los de  servidores de correo,  de impresión,  conexión con redes, etc.

Cada Demonio o Daemon tiene asociado un shell script que se encuentra en  /etc/init.d/  
Ese directorio puede variar dependiendo de la distribución GNU/Linux que usemos, como en el caso de Red Hat que se encuentra en /etc/rc.d/

¿Cómo sabemos  que demonios  se están ejecutando en nuestro sistema?

Seguir leyendo: Espacio GNU/Linux

miércoles, 16 de junio de 2010

squid-deb-proxy: Repositorio local de actualizaciones en ubuntu

Si es usted como yo y tiene varias máquinas Ubuntu bajo un mismo techo? ¿Está cansado de la descarga de la misma actualización varias veces? Harto de lo que parece ser duplicar el trabajo? Deja que te presente a mi pequeño amigo ... squid-deb-proxy. 

Squid-deb-proxy es un nuevo paquete para Ubuntu 10.04, y está diseñado para hacer su vida más fácil y permite actualizaciones más rápidas si se administra más de una máquina de Ubuntu. Conceptualmente, el squid-deb-proxy se compone de dos piezas, un cliente y un servidor. El paquete de servidor es "squid-deb-proxy" y el paquete del cliente es "squid-deb-proxy-cliente". El "squid-deb-proxy" paquete de servidor es básicamente un servidor de almacenamiento en caché de squid, con un fuera de la configuración de la caja que permite almacenar en memoria caché paquetes .deb y hacerlos accesibles a la red de área local. El "squid-deb-proxy-cliente" paquete es básicamente un archivo de inclusión en la configuración estándar que hace que apt este consciente del calamar-deb-proxy.

Para instalar el servidor, simplemente "sudo apt-get install squid-proxy deb-avahi-tools" en el equipo que desea que el servidor se encuentre habilitado. Esto instalará el servidor de almacenamiento en caché de squid y el avahi (Bonjour) utilidades de configuración automática de red, y comenzar a ambos servidores, por lo que el almacenamiento en caché del proxy squid empezará a emitir su disponibilidad en la red. A continuación, un "sudo apt-get install squid-deb-proxy-client" en cada computadora con Ubuntu 10.04 (incluido el servidor squid-deb-proxy) instalará la configuración de apt. Usted desea instalar el cliente en el servidor, así que cada vez que el servidor de descarga de actualizaciones en caché las actualizaciones son obtenidas por el proxy squid. Esto también permitirá que el servidor para instalar ya improbables actualizaciones a través del proxy.

Una vez hecho esto, el squid-deb-proxy es transparente para el usuario. El apt de cada máquina se verá en la red para un squid-deb-proxy, y si encuentra uno, ya pasará sus solicitudes a través de eso. El proxy caché de los .deb que vienen a través de él y los pone a disposición del cliente la próxima actualización que los necesita. El segundo cliente para solicitar estas mismas actualizaciones les tire hacia abajo desde el proxy squid, en lugar de tener que obtener de la Internet. Usted obtiene el beneficio de un repositorio local, sin la molestia de crear uno! 

La parte hermosa sobre squid-deb-proxy es que es una solución completamente transparente. Si usted tiene el cliente de squid-deb-proxy instalado en su computadora portátil y elige descargar una actualización, mientras que en viaje de negocios, su portátil puede grabar las actualizaciones desde el repositorio principal en el archivo sources.list, ya que el proxy no es en esa red de área local, la difusión de sus servicios a través de avahi. No hay necesidad de modificar su sources.list de ninguna manera, porque apt se da cuenta automáticamente. Es muy buen material.

How-To: Convertir un Filesystem Ext3 a Ext4


Ext4 ha demostrado ser un sistema de ficheros con mucho mejor desempeño que su predecesor, ext3. Si uno necesita hacer pruebas, es posible montar una partición ext3 como ext4, pero carecerá de muchas funciones propias de ext4. Si uno ha venido utilizando Fedora desde la versión 10 y actualizado desde entonces, como es mi caso, las particiones originales quedaron como ext3. Si se ha actualizado a Fedora 13, conviene convertir a ext4 dichas particiones, a fin de lograr un mejor desempeño del sistema. A continuación describo el procedimiento para convertir una partición ext3 a una ext4, con Fedora 13, sin morir en el intento.

Antes de comenzar, debo hacer la advertencia de que si se comete algún error, el sistema puede quedar imposibilitado para funcionar. De deslindo de cualquier responsabilidad si se hace mal uso de este documento.

Por favor, leer y estudiar todo este documento antes de poner en práctica los procedimientos. Este documento asume que se utilizan particiones normales, y que el sistema carece de volúmenes lógicos.

Determinar las particiones del disco duro.

Recomiendo utilizar el mandato df para verificar que dispositivos corresponden a los puntos de montaje del sistema. También puede utilizarse e mandato fdisk con la opción -l.

Preparar un disco vivo (LiveCD o LiveDVD).

Conviene realizar todos los procedimientos desde un disco vivo. De este modo, si algo sale mal, será posible realizar una recuperación de datos. Recomiendo utilizar un disco vivo de Fedora 13.

Respaldar información.

El título lo dice todo. Conviene hacer un respaldo de la información más importante antes de proceder. Un error al realizar los procedimientos puede tener repercusiones dramáticas.

Particularmente para los procedimientos, recomiendo respaldar los ficheros /etc/fstab y /boot/grub/grub.conf en una llave USB o cualquier otro dispositivo de almacenamiento a la mano.

Conocer la herramienta blkid.

El procedimiento de convertir una partición de Ext3 a Ext4 puede cambiar el UUID (Universally Unique Identifier, Identificador Universalmente Único) de la partición. La herramienta blkid sirve para determinar los UUID, y será utilizada posteriormente para determinar el nuevo UUID de la partición que se vaya a modificar. Ejemplo:
blkid /dev/sda1
Lo anterior debe devolver algo similar a lo siguiente:
/dev/sda1: UUID="493b7266-9111-446f-b236-5cd3bfef3467" TYPE="ext4"

Procedimientos.

Iniciar la computadora con el disco vivo de Fedora 13. Ingresar como el usuario predeterminado del disco vivo. Abrir una terminal e ingresar lo siguiente:
su -l root
Siendo que el usuario root en el disco vivo de Fedora 13 carece de clave de acceso, el cambio debe proceder sin solicitar clave de acceso.

Identifique la partición a modificar. para tal fin se pude utilizar el mandato fdisk con la opción -l:
fdisk -l
Vamos a asumir como ejemplo que se se va a cambiar la partición /dev/sda2, la cual hipotéticamente corresponde a la partición /.

Para convertir la partición de Ext3 a Ext4, solo se requiere ejecutar el mandato tune2fs con las opciones -O extents,uninit_bg,dir_index e indicando el dispositivo a modificar (dev/sda2):
tune2fs -O extents,uninit_bg,dir_index /dev/sda2
Una vez terminado lo anterior, se debe ejecutar el mandato fsck con las opciones -fDC0, a fin de corregir algunas de las estructuras modificadas por tune2fs.
fsck -fDC0 /dev/sda2
Si se omite lo anterior, el sistema estará imposibilitado para montar esta partición.

A continuación, se debe determinar el nuevo UUID de la partición /dev/sda2:
blkid /dev/sda2

Lo anterior debe devolver algo similar a lo siguiente.
/dev/sda2: LABEL="Fedora" UUID="3694bdf2-9055-4af8-acb9-45472634a7e1" TYPE="ext4"
Se debe tomar nota del nuevo número de UUID, en caso de que este haya cambiado, a fin de actualizar éste en los ficheros /etc/fstab y /boot/grub/grub.conf del sistema operativo en el disco duro

Para realizar el cambio, se debe crear un punto de montaje temporal para la partición /dev/sda2, como por ejemplo /mnt/fedora:
mkdir /mnt/fedora
Luego se procede a montar /dev/sda2 en /mnt/fedora:
mount /dev/sda2 /mnt/fedora
Es importante montar también /dev/sda1, partición que por lo general corresponde a /boot.
mount /dev/sda1 /mnt/fedora/boot
utilizar gedit y modificar los ficheros /mnt/fedora/etc/fstab y /mnt/fedora/boot/grub/grub.conf.

En el fichero /mnt/fedora/etc/fstab se debe actualizar el UUID de la partición correspondiente a /, y el formato de la misma como ext4.
#
# /etc/fstab
# Created by anaconda on Tue Dec 15 13:42:13 2009
#
# Accessible filesystems, by reference, are maintained under '/dev/disk'
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
#
UUID=3694bdf2-9055-4af8-acb9-45472634a7e1 / ext4 defaults 1 1
UUID=493b7266-9111-446f-b236-5cd3bfef3467 /boot ext3 defaults 1 2
UUID=2e7efa7f-ebaf-4202-944d-8b115f373c07 /home ext3 defaults 1 2
UUID=7a0811e4-5bd2-4309-83ef-53d0ec9011ed swap swap defaults 0 0
tmpfs /dev/shm tmpfs defaults 0 0
devpts /dev/pts devpts gid=5,mode=620 0 0
sysfs /sys sysfs defaults 0 0
proc /proc proc defaults 0 0
Ejemplo del fichero /mnt/fedora/boot/grub/grub.conf.

# grub.conf generated by anaconda


#
# Note that you do not have to rerun grub after making changes to this file
# NOTICE: You have a /boot partition. This means that
#        all kernel and initrd paths are relative to /boot/, eg.
#        root (hd0,0)
#        kernel /vmlinuz-version ro root=/dev/sda2
#        initrd /initrd-[generic-]version.img
#boot=/dev/sda
default=0
timeout=0
splashimage=(hd0,0)/grub/splash.xpm.gz
hiddenmenu
password --md5 $1$M1qJ4oR.$EFT/LInF5r.At1hKPFgQd1
title Fedora (2.6.33.5-112.fc13.i686)
        root (hd0,0)
        kernel /vmlinuz-2.6.33.5-112.fc13.i686 ro root=UUID=3694bdf2-9055-4af8-acb9-45472634a7e1 LANG=es_MX.UTF-8 KEYBOARDTYPE=pc KEYTABLE=es rhgb quiet
        initrd /initramfs-2.6.33.5-112.fc13.i686.img
Luego de haber terminado lo anterior, se debe reiniciar el sistema para verificar que todo funcione correctamente.

Si todo funcionó correctamente, se pude repetir el procedimiento para cambiar de ext3 a ext4 otras particiones.

Advertencia respecto de convertir a ext4 la partición correspondiente a /boot.

Si alguien realiza este procedimiento con Fedora 11, éste requiere que /boot esté en una partición con formato ext3, por lo cual dicha partición debe dejarse como está, en ext3.

En el caso de Fedora 12 y Fedora 13, éstos pueden utilizar ext4 en la partición /boot, sin problemas.

Sí se convierte a ext4 la partición /boot, va a requerirse reinstalar grub. Para este fin, recomiendo iniciar con el disco vivo y realizar el siguiente procedimiento, asumiendo, para este ejemplo, que/boot corresponde a /dev/sda1 y / corresponde a /dev/sda2:
su -l
tune2fs -O extents,uninit_bg,dir_index /dev/sda1
fsck -fDC0 /dev/sda1
mkdir /mnt/fedora
mount /dev/sda2 /mnt/fedora
mount -o bind /dev /mnt/fedora/dev
mount -o bind /sys /mnt/fedora/sys
mount -o bind /proc /mnt/fedora/proc
chroot /mnt/fedora
mount /dev/sda1 /boot
grub-install /dev/sda
exit
Nota: El montado de /boot debe hacerse después de hacer chroot /mnt/fedora/, ya que de de otro modo fallará la reinstalación de grub.

Antes de reiniciar, es importante verificar que el UUID de /boot sea el mismo especificado en los ficheros /mnt/fedora/boot/grub/grub.conf y /mnt/fedora/etc/fstab. Utilizar el mandado blkidcomo se especifica arriba.

Comentarios finales.

Un sistema con todas sus particiones en formato ext4 mejora el tiempo de arranque de el mismo sistema con ext3. En el caso de dos Acer Aspire One A150, la mejoría fue de 17 segundos menos en el arranque del sistema, lográndose hasta 28 MB/s contra 10 MB/s del mismo sistema con ext3.

Más información: Ext4 Wiki