Blogia
POLERAS.COM: EL BLOG DE ALEXIS IBARRA

Nuevas tecnologías

TRANSPORTE PUBLICO: LA TECNOLOGIA DETRAS DEL TRANSANTIAGO

Transantiago cambiará la forma en que nos movemos en la capital de Chile. Ya no se podrá dormir en las micros, ya que los viajes serán más cortos. Además una serie de tecnología asegurarán que los pasajeros viajen más seguros y que los choferes tengan mejores condiciones de trabajo.
Así contaremos con un sistema del primer mundo, en un país del tercero.
Ya no veremos micros amarillas con grafitis, sino buses articulados; no habrá micreros malhumorados, sino conductores que trabajan ocho horas, los pasajeros no serán una molestia, serán clientes; los estudiantes, serán bienvenidos (ya que el operador del bus recibirá la misma plata por un adulto o un escolar); los sapos serán reemplazados por modernos sistemas basados en GPS y los minusvalidos podrán subir con facilidad en una micro.
La tecnología ayuda a humanizar un bien básico como es el transporte público.
Aquí un artículo que escribí en El Mercurio y esta es una ilustrativa Infografía

TRANSPORTE PUBLICO:
La tecnología detrás del Transantiago

Alexis Ibarra O.

En Transantiago la vieja y querida micrito, ahora será bus; el micrero, conductor, y los pasajeros, clientes.

El cambió no sólo será en el lenguaje, también en una gran cantidad de beneficios que los usuarios del transporte público verán en las calles a partir de agosto de 2006.

Varios miles de dólares llevará cada bus en su interior. Vendrán provistos con tecnología de punta para que Transantiago funcione con la precisión de un reloj.

La idea es que se reduzcan los tiempos de traslados, pero, por sobre todo, que los usuarios del transporte público sepan con certeza cuánto se demoran en sus trayectos. Así, si una persona sale a las 8:25 de la mañana sabrá que un bus alimentador pasará por su paradero a las 8.30 y que 20 minutos después lo conectará con un bus más grande que correrá por las llamadas vías troncales. Habrá menos tiempo de espera, ya que los buses harán recorridos más cortos, pero efectivos.

Toda esta coordinación será posible gracias a buses inteligentes, que enviarán oleadas de información cada cierto tiempo, indicando su posición. Pero, además, un cerebro al interior irá guardando los datos de cuántas personas pagaron su pasaje y cuántas efectivamente se subieron al bus.

El Ministerio de Obras Públicas llamó a licitación, primero, para saber quiénes operarán los buses y, luego, para definir el "Administrador Financiero Transantiago" (AFT), entidad que se encargará de administrar el sistema, tomando los datos provenientes de los buses y los centros de carga para cuadrar todo y repartir las cuotas de transportes a los operadores de los buses cada 15 días. Como casi todo será pagado con la tarjeta Multivía, ni los choferes ni sus jefes verán plata hasta que les llegue el pago correspondiente.

A la licitación se presentó un consorcio constituido por entidades bancarias (Santander, Chile, Estado, BCI y CMR, de Falabella) y una alianza tecnológica entre Sonda y NEC. Esto garantizó una tasa de cobro de 1,95% sobre los US$ 700 millones anuales que generará el plan.

Una tarjeta para todo

Es el AFT el que se encargará de implementar la tecnología al interior de los buses: tanto en los articulados -marca Volvo- que correrán por los troncales, como en los más chicos que alimentarán otras rutas.

Hasta la forma de pagar ya no será la misma. Usaremos una tarjeta similar a la actual Multivía que cargaremos en cualquiera de los cerca de mil "puntos de carga" ubicados en servicentros, quioscos y otros lugares de fácil acceso. Habrá tarjetas desechables fabricadas de cartón y que tienen dinero precargado (similar al sistema de las recargas de los celulares), otras plásticas que "llenaremos" con el dinero que queramos y otras personalizadas que tendrán asociados nuestros datos. Estas últimas podrán ser bloqueadas en caso de pérdida y nuestro saldo será trasnferido a una nueva tarjeta. Más adelante, la tarjeta podrá ser utilizada como monedero electrónico para comprar bebidas o pagar el cine.

La tecnología permitirá cargar nuestra tarjeta desde internet, la cuenta corriente o la tarjeta CMR.

El chofer ya no recibirá el pago, ni existirá cobrador humano. Los encargados de cobrar serán unas máquinas llamadas "validadores", que recibirán la información de la tarjeta y descontarán el importe. La tarifa dependerá del tipo de recorrido, pero la tecnología permitirá hacer todas las combinaciones tarifarias que se quieran.

También se podrán usar monedas, pero su uso será en caso de no contar con la tarjeta. En cada bus existirá un "dispositivo pago exacto" (DPE), que las recibirá, pero no dará vuelto, la tarifa será más cara, no funcionará con todo tipo de monedas y no estará en toda la flota. "Buscamos incentivar el uso de las tarjetas sin contacto, ya que por un tema de seguridad no es bueno andar con dinero arriba de los buses. Pero, por otro lado, el transporte es un bien básico y no podemos negarle el servicio a quien no tiene la tarjeta. El que no la tiene igual podrá viajar, pero le saldrá más caro", señaló Luis Tapia, asesor de la Unidad de Negocios de Transantiago.

Los escolares deberán validarse en el aparato más cercano al chofer. Si lo hacen en otro validador, se les cobrará tarifa completa. La tecnología permite, incluso, determinar los horarios y épocas del año en que se puede pagar escolar. Si un estudiante diurno se sube a las 11 de la noche es probable que se le cobre tarifa de adulto.

Pero para los estudiantes lo más importante es que se terminará con la discriminación y los malos tratos, ya que en el nuevo esquema al operador del bus se le paga por pasajero transportado; es decir, un escolar es igual de valioso que un adulto.

Seguridad ante todo

Cada bus contará, por lo menos, con una cámara digital en cada una de sus puertas y otra que vigile la cabina del conductor. Estarán almacenando información constantemente, pero en baja resolución. Si ocurre un asalto o un pasajero sufre un ataque, el chofer podrá accionar un "botón de emergencia" que gatilla que la cámara grabe con mejor calidad y que se abra un canal de voz (vía celular) que se comunicará con los centros de monitoreo.

Las grabaciones quedan almacenadas en el bus y pueden ser descargadas por requerimiento de los operadores o la autoridad. En caso contrario, la información se va sobreescribiendo cada cierto tiempo.

Será más difícil sufrir accidentes por caídas en los buses, ya que en cada puerta existirá un sensor de "puerta abierta" que avisará a la central que el conductor anda con las puertas abiertas y lo sancionarán. En algunos casos la micro no podrá partir hasta tener cerradas sus puertas.

Para brindarle datos útiles al usuario existirán "paneles de información variable". Ellos desplegarán la cercanía a las estaciones modales, a los paraderos importantes o el chofer podrá comunicar en ellos alguna eventualidad.

Andrés Silva, jefe de Proyecto del Administrador Financiero Transantiago, aclaró que la tecnología permitiría hacer publicidad georreferenciada. "Si vas pasando cerca de un supermercado, en la pantalla aparecería que si compras en los próximos 20 minutos te harán 15% de descuento y, además, se podrán establecer promociones que incorporen la devolución del pasaje. Así que podrás bajarte comprar y luego subirte en el próximo bus".

¿Cuánto vive un bus?

Un cambio fundamental será la medición de la vida útil de la máquina. Antes las micros podían funcionar doce años en Santiago, ahora la vida útil se mide en kilómetros efectivamente recorridos. Para eso los buses tendrán un odómetro adicional (cuentakilómetros) que irá mandando información sobre las distancias recorridas a la central.

"La vida útil no se puede medir en años. No es lo mismo un bus de doce años que ha pasado en la cochera que uno que se usa en la forma tan intensiva como en Santiago. Por lo tanto decidimos que la vida útil de un bus en el Transantiago finaliza al millón de kilómetros", señaló Andrés Silva.

El APC ("automatic passenger counter") es el contador de personas que se encargará de contrastar la información de la gente que paga con la que efectivamente sube. Podrán detectar el fraude y aplicar sanciones al operador del bus si sobrepasan un rango. "Pero además medirá la gente que baja, lo que posibilita medir la carga de los buses y saber cuánta gente va en su interior. Así podremos hacer gestión sobre la flota y ver cómo se comporta a lo largo del día y decidir, por ejemplo, agregar o quitar buses", señala Luis Tapia.

Una combinación de hardware y software -al que han llamado AVL ("automatic vehicle location" o "localización automática del vehículo")- permitirá saber la posición exacta del bus, si se ha desviado de su ruta, si permanece mucho tiempo parado y la velocidad a la que anda. "Es más que un GPS, es una combinación de varias tecnologías como odómetros y giróscopos. También habrá software de sistema geográfico (mapas virtuales) y software de gestión de ruta", señala Tapia.

Esto permitirá pequeños milagros. Por ejemplo, si sabemos que me demoro cuatro minutos de mi casa al paradero, puedo crear una alerta en mi celular que me avise cuándo el bus está a cinco minutos de mi parada, lo que me da tiempo de tomar mis cosas e ir en busca de la micro.

Transporte humanizado

Los choferes tendrán un sistema de identificación que los habilitará para conducir. Si el conductor no se identifica, la máquina no podrá partir. "Pero un chofer podría estar identificado como Juanito Pérez y una vez cumplido su turno empiece otro haciéndose pasar por Pedrito Soto. Sin embargo, existirán controles a los sistemas contables del operador del bus, quien tendría que pagar dos sueldos, dos imposiciones, etc.", señala Luis Tapia. Además existirán fiscalizadores que pedirán la identificación al chofer.

En el nuevo modelo el chofer trabajará ocho horas y podrá manejar solo cinco horas continuas. Andrés Silva señala que actualmente "un chofer con 39 de fiebre ahora igual sale a trabajar, porque de eso dependen sus ingresos. En el nuevo esquema podrá pedir licencia, ya que su remuneración no está vinculada al corte de boletos. Eso hace que este sea un sistema más seguro para los usuarios y más humano para sus trabajadores".

Siempre en comunicación

En los "dormitorios", donde los buses pasan más tiempo detenidos, se contará con tecnología Wi-Fi (802.11b) para descargar información en grandes cantidades, como, por ejemplo, los videos. Serán enlaces de hasta 10 Mbps.

Cuando el bus esté en movimiento también necesitarán enviar información relevante. Alternativas hay muchas como el trunking digital, pero lo más probable es que sea una tecnología GSM/GPRS como la que tienen los operadores telefónicos Movistar o Entel PCS actualmente en Chile. Cada cierto tiempo el bus mandará oleadas de información sobre los pasajeros que han pagado, su posición en la ruta, etc. Pero, para ahorrar, la información no tendrá que viajar todo el tiempo. El sistema mezclará envíos regulares de paquetes de información con envíos gatillados por excepciones en la ruta.

Toda la información será recepcionada por un "Centro de Operación de Flota", una especie de central que estará constantemente recibiendo información y tomando decisiones a partir de ella. Además, el chofer podrá comunicarse vía voz con dicho centro en caso de necesitarlo.

En caso de que la central detecte alguna contingencia en la ruta le avisará al conductor las acciones que este deba tomar. Esto permitirá buscar una ruta alternativa o simplemente bajar la velocidad.

Números

Transantiago tendrá quince unidades de negocios: Diez de ellas serán alimentadoras y cinco correrán por vías troncales. También se incluirá al Metro y los metrotrenes dentro de su esquema.

En Internet
Sitio de Transantiago
¿Y esta publicidad? Puedes eliminarla si quieres.

Salió Skype para MAC y LINUX

Salió Skype para MAC y LINUX Ya se encuentran disponibles las versiones 1.0 de Skype para Mac OS X y Skype para Linux. Esta aplicaciones de software permiten llamadas por Internet con alta calidad de voz desde diferentes plataformas informáticas. Skype es el principal producto en la categoría de trasmisión de voz por protocolo de Internet en todo el mundo; cuenta con más de 23 millones de usuarios registrados y más de 130.000 nuevos usuarios por día. Los productos Skype para las plataformas Linux, Mac OS X, Windows y Pocket PC se descargan gratuitamente de Internet en: www.skype.com.

Los programas Skype para Mac OS X y Skype para Linux, anteriormente disponibles en su versión beta, incluyen llamadas gratis y conferencias telefónicas de hasta cinco participantes, también gratuitas, entre computadoras que tengan instalado Skype, comunicaciones desde distintas plataformas, numerosas prestaciones y posibilidades de personalización, y con el servicio prepago SkypeOut los usuarios pueden hacer llamadas a cualquier teléfono de línea fija o móvil por el precio de una llamada local.

"Alentamos a todos los usuarios de Mac OS X y Linux a probar las ventajas en materia de precio y calidad que ofrece la versión 1.0 del software Skype", dijo Niklas Zennstrom, director general y cofundador de Skype. "Agradecemos a todos aquellos que descargaron las versiones beta del producto mientras se encontraba en su fase de desarrollo; su apoyo ha sido fantástico. Renovamos nuestro compromiso hacia la innovación y continuaremos ampliando las opciones para distintas plataformas".

Requisitos del sistema para Skype para Mac OS X

Skype para Mac OS X 1.0 requiere una computadora Macintosh con el sistema operativo Mac OS X versión 10.3 o superior, un procesador G3, G4, o G5, un procesador de 400 MHz como mínimo, 128 MB de RAM, 20 MB libres en el disco duro, tarjeta de sonido, parlantes, micrófono y conexión a Internet.

Requerimientos del sistema para Skype para Linux

Skype para Linux 1.0 requiere una computadora con al menos un procesador de 400 MHz, 128 MB de RAM, 10 MB libres en el disco duro, tarjeta de sonido, parlantes, micrófono y conexión a Internet. Skype para Linux 1.0 ya sido probado con éxito en varios nuevos productos, entre los que se encuentran: SuSE 9, Gentoo 1.4, Debian unstable, Fedora Core 2, Sun Java Desktop System Release 2 y Xandros. Debe ejecutarse en cualquier producto que disponga de las versiones requeridas de las bibliotecas Qt y glibc. Skype para Linux 1.0 funciona con los administradores de escritorio KDE y Gnome.

Centro Modelo de Lautaro: Capacitando a los más pobres con tecnología de punta

Esta es de una de esas historias bonitas, en la cual las piezas encajan a la perfección como si estuviera escrito para un guión cinematográfico con final feliz.

Todo comienza con una invitación extendida a Mariano Fernández, embajador de Chile en Inglaterra, para ir a conocer un centro comunitario en una de las zonas más conflictivas de Londres, con altos niveles de cesantía y delincuencia. Al embajador le pareció tan interesante la iniciativa que cuando el vicepresidente ejecutivo de CORFO, Óscar Landerretche, va a Inglaterra lo invita a conocer este community center.

Al llegar se encuentra con la sorpresa que un chileno, Narciso Gálvez, lo dirige. Fue tal su fascinación que su visita planificada para un par de horas se alarga todo el día para conocer cada detalle y ver la posibilidad de crear algo parecido en Chile.

De vuelta al país llega con la idea de replicar el modelo y comienzan a pensar cuál sería el mejor lugar para instalarlo. Las piezas comienzan a encajar ya que la CORFO posee un edificio en pleno centro de Lautaro, comuna ubicada al norte de Temuco, donde antes estuvo el regimiento “La Concepción.

Lautaro parecía ser el lugar ideal para instalar el Centro comunitario: tiene una alta demanda de capacitación y un bajo nivel de escolaridad, es una comuna pobre y necesita urgentemente de mano de obra capacitada para “alimentar” el Parque Industrial impulsado por CORFO y CorpAraucanía en las afueras de Lautaro y que se convertirá en el foco productivo de la región.
La idea comenzaba a tomar forma, pero pocos entendían en su real magnitud lo que Landerretche había visto en Inglaterra. Por eso se envió a una delegación de tres expertos: Juan Carlos Jorquera, director IX Región de Corfo, Inti Núñez, subgerente de Comités e Institutos de Corfo y Christian Labbé, encargado de evaluación y estudios del Instituto de Informática Educativa, de la Universidad de la Frontera (IIE), para que en una semana se sumergieran en la dinámica de los Centros de Londres y trajeran el conocimiento al país.

El IIE se hizo cargo de la ejecución del proyecto y el financiamiento corre por parte de CORFO (alrededor de un millón de dólares).

Edgardo Parra, jefe del Proyecto del Centro Modelo y jefe del área de Desarrollo Social y TIC del IIE, señala que el instituto fue elegido ya que son expertos en educación utilizando tecnologías de la información (ellos fueron los padres del proyecto Enlaces), tienen más de 10 años experiencia capacitando a adultos y niños y, además, crearon una red de telecentros en la Araucanía.

En agosto terminaron la etapa de factibilidad. En ella descubrieron que el 61% de la población (19.775 personas) de Lautaro está en el rango entre los 15 y los 65 años y que de ellos la escolaridad promedio es séptimo básico. Es ese segmento de la población el que va dirigida la iniciativa.
CORFO ya llamó a licitación para remodelar el edificio y se comenzó la etapa de puesta en marcha para que todo esté listo para la inauguración del centro a mediados de año.

El centro por dentro

La idea es capacitar a la población de bajos ingresos de la comuna, específicamente a aquellas personas que se encuentran cesantes, dueñas de casas, pequeños empresarios, emprendedores y jóvenes. “En Lautaro hay demanda de mano de obra producto del nuevo Parque Industrial pero las empresas no contratan a la gente de la comuna porque ‘no dan la talla’. La idea es que capacitemos a las personas en las reales necesidades de las empresas regionales, tales como la industria de la madera o la agroindustria”, señala Edgardo Parra.
Para ello utilizarán herramientas computacionales para capacitar a los vecinos en competencias para el trabajo. “Debido al bajo nivel de escolaridad de las personas, los contenidos deben ser entregados de una forma amena y visual ya que la comprensión de lectura es baja. Por eso daremos especial énfasis a crear objetos de aprendizaje con alto contenido multimedial”, señala Parra.
Cuando una persona llegue al centro buscando trabajo o solicitando capacitación se le pedirá que llene una ficha. De acuerdo a su nivel educacional y sus competencias se le hará una especie de mapa de ruta con los cursos que debiera tomar y se firma un compromiso de capacitación que ambas partes deben respetar. Así, una persona puede ser capacitada en competencias básicas (lectura y escritura, aritmética), competencias genéricas (alfabetización digital, inglés básico) y competencias laborales (técnicas de trabajo de la madera, por ejemplo). Todos los cursos están diseñados modularmente, duran menos de 30 horas, tienen horario flexible, están disponibles en línea y se obtiene una certificación.
Parra señala que además de ayudar a la colocación laboral de los vecinos de la comuna el proyecto busca experimentar y desarrollar una industria de e-learning a nivel nacional. “El e-learning es una prioridad del Sence (Servicio Nacional de Capacitación y Empleo), pero que lamentablemente no ha prendido en Chile”, aclara el jefe del proyecto.
También piensan instalar un telecentro para que los vecinos accedan a las nuevas tecnologías de la información y un gimnasio para que la gente circule por el centro y pueda complementar su capacitación con actividades físicas.

“Todas las fuerzas vivas de la comunidad estarán representadas en el centro”, señala Parra. Para lograrlo crearon un directorio compuesto por el Alcalde, representantes de la Universidad, CORFO y otros actores. También hay un Consejo Consultivo que reúne a los principales representantes de la comunidad como dirigentes vecinales, miembros de organizaciones sociales y otros líderes de la comunidad”.

CORFO financiará toda la puesta en marcha del proyecto hasta finales de 2005, después el centro debe ser autosustentable. Para ello esperan contar con recursos provenientes de la municipalidad, SENCE, fondos concursables (FOSIS, Sercotec, ChileDeportes) y arrendando espacios físicos del centro. “Pero la gente no va a pagar un sólo peso”, aclara Parra.
En 2005 esperan capacitar a 3 mil personas en Lautaro. Pero ya están pensando a lo grande: han calculado que si los centros funcionaran a nivel regional capacitarían 75 mil personas al año y 1,3 millones de personas a nivel nacional. “Este es un modelo de experimentación que si todo sale bien será replicado a nivel nacional”, concluye Parra.

Londres por Lautaro

Narciso Gálvez se fue exiliado de Chile en 1979. Cuando llegó a Londres formó una comunidad latina y se insertó en el Partido Laborista. Postuló a un trabajo dirigiendo un centro comunitario en un área deprimida de Londres. Lo dirigió por más de siete años y el centro se volvió un paradigma en Europa. Él recibió a Landerretche y a la delegación de expertos que visitó el centro para interiorizarse de lo que hacían allá.

En septiembre lo invitaron a Chile para que diera sugerencias y capacitara a los ejecutores del proyecto. Al final de su estadía lo tentaron con regresar a Chile para hacerse cargo del directorio. Con ayuda de su familia aceptó, y la semana pasada llegó a Chile.

El rompecabezas ya estaba terminado. La historia tenía final feliz.

Fuente: El Mercurio

Software Abierto: Factibilizando la neutralidad tecnológica para Chile

Hoy la Fundación País Digital (www.paisdigital.org) presentó el documento "Software Abierto: Factibilizando la neutralidad tecnológica para Chile". La iniciativa busca presentar al Open Source como una alternativa viable en el ambiente tecnológico nacional.
La importancia de este espaldarazo es que la Fundación agrupa a los principales actores de la industria y a importantes personeros de gobierno, y se constituye en un importante referente nacional.
El documento tiene una extensión de 53 páginas donde se revisa el estado del arte del desarrollo de software, para luego analizar las ventajas y desventajas de la utilización del software abierto, clarificar mitos y realidad y la estrategia que el país debiera seguir para su utilización.
Para los malos para leer hice un “resumen”:

En sus 53 páginas señala que la neutralidad tecnológica, es decir, que la regulación no determine la preferencia de una tecnología sobre otra, debiera regir la forma en que se toman las decisiones en materia de TI. Actualmente no hay suficientes productos ni servicios basado en software abierto (SA), por lo que el mercado no da muchas posibilidades. Hay que incorporar el SA a la discusión nacional para que la neutralidad tecnológica sea real, y ese es uno de los objetivos de este trabajo.

Usar tecnologías propietarias, dice el documento, es más caro y nos resta competitividad frente a países que usan SA.
En las empresas se podría incluir este tipo de desarrollos en los servicios de comunicaciones y en la seguridad informática. A nivel de usuario en las aplicaciones de internet, en los sistemas operativos o utilizando aplicaciones de oficina.

El Estado, por su parte, debería crear políticas para generar modelos de licenciamiento similares al software abierto, que reduzcan costos y aceleren los procesos a través de la reutilización de aplicaciones creadas por otras entidades de gobierno.

El documento define estrategias de éxito de empresas que han adoptado este tipo de programas entre ellas la coexistencia de software abierto y propietario, realizar servicios de consultaría y soporte, contar con el apoyo de grandes corporaciones, la utilización del software abierto para implementar plataformas de software bajo el esquema de arriendo (ASP) y el desarrollo de sistemas incrustados (embedded).

Se señala que el SA es más seguro a pesar de que se piensa que por conocer el código también se conoce mejor sus vulnerabilidades. Al tener el código a la vista, dicen, la detección de errores es más fácil y existe un gran número de desarrolladores revisando el código. Los estudios dicen que la densidad de errores es cinco veces menor que el promedio que el de los software propietarios. Además, no se conocen casos de infecciones masivas por virus.

En el aspecto legal, las distintas formas de licenciamiento se avienen a nuestra legislación y, contrario a lo que se piensa, el SA no reniega de los derechos de autor, sino que opera sobre ese marco.

En cuanto a interoperabilidad, el SA utiliza estándares abiertos. Uno de los desafíos es mejora la interoperabilidad con sistemas propietarios.

Para que el SA sea una alternativa viable para Chile hay que seguir una estrategia que considere que los desarrollos web se hagan pensando en que puedan ser “leídos” por navegadores en distintas plataformas, que exista compatibilidad con el hardware y con formatos de archivos de software propietario y, por último, que se termine con la percepción negativa del SA. En ese aspecto son claves dar a la luz pública experiencias exitosas y el apoyo del mundo académico.

Según la Fundación falta definir una estrategia nacional, entendiendo que las leyes del mercado no son suficientes frente a razones estructurales propias de una innovación de estas características. El Gobierno debe liderar un proyecto de esta envergadura no sólo por su rol de principal comprador, sino porque la maximización de recursos tecnológicos hará más competitivo al país.

Datos:
Como el hardware es cada vez más barato el software debe seguir esa misma dirección.

Hay una fuerte relación entre internet y software libre, el SL nació bajó el alero de internet. Esto se nota en la gran cantidad de aplicaciones que hay para ello. Sin embargo falta software para otras necesidades.

A pesar de muchos proveedores dicen que el software abierto tiende a destruir el valor de las propiedades intelectuales, estamos frente a un cambio de modelo económico de software que elimina distorsiones mantenidas por la predominancia de esos mismos proveedores.

Como en el software abierto hay mayor posibilidad de ver los errores hay más tiempo para corregirlos.

Existe rigurosidad en la revisión y en aceptar código ininteligibles o que no se adhieran a las políticas de programación.

La seguridad no es una debilidad en el software abierto, es su mayor ventaja.

Casi siempre en las licencias se contemplan clausulas que eximen de responsabilidad al desarrollador y distribuidor

Libre en este caso se apega a “free as in a free speech, not as in free beer".

Hay distintos tipos de licencias: licencias permisivas, licencias persistentes, licencias intermedias."
¿Y esta publicidad? Puedes eliminarla si quieres.

Los nuevos formatos de compresión

Es como pisar con energía un basurero lleno de papeles para que quede espacio para echar más basura. Así – aunque con más inteligencia que fuerza bruta- funciona la compresión de datos computacionales.

La historia no es nueva. Desde los comienzos de la era del cómputo los expertos han escudriñado la forma de reducir la cantidad de bytes que consumen los archivos.

A comienzo de los noventa, cuando los PCs salieron de los laboratorios y llegaron a algunos hogares y empresas, y el negro DOS era el software que controlaba el cerebro del PC, un pequeño programa llamado ARJ (ftp://ftp.leo.org/pub/comp/os/dos/arcutils/arj250a.exe) nos permitía comprimir nuestros archivos utilizando líneas de comandos.

No pasó mucho tiempo para que el formato ZIP comenzara a convertirse en el estándar de la industria.

Cuenta la leyenda que en 1986, un joven de 23 años llamado Phillip Katz sentado en la cocina de la casa materna escribió un código que permitía comprimir y descomprimir datos rápida, y lo que es más importante, sencillamente.

Ahí nació PKZip (la P y la K son por Phillip Katz), el producto detrás de la idea, que comenzó a masificarse debido, entre otras cosa, a su gratuidad.

Tiempo después y con la llegada del exitoso sistema operativo Windows 95, PKZip abre pasó a WinZip 95, el programa que consolidaría al formato de compresión ZIP como el más popular. Lamentablemente, Phil Kazt falleció el año 2000 a la edad de 37 años (www.esva.net/~thom/deadkatz.html), conociendo sólo parte de la fama de su creación.

El zip es, en estos momentos, el formato más usado para comprimir y descomprimir archivos, al punto que Windows lo incluyó en Windows XP, su más reciente sistema operativo para las masas.

Eso significa que para descomprimir archivos en Windows XP, ya no es necesario tener un programa especial. Basta con hacer doble clic sobre el archivo ZIP para ver su contenido y, posteriormente, descomprimirlo.

Para comprimir hay que seleccionar el o los archivos e ir al menú Archivos de la capeta y seleccionar “Enviar a/ Carpeta Comprimida (en Zip)”. La misma operación se puede realizar seleccionando los archivos y, luego, haciendo clic derecho para obtener un menú desplegable que ofrece la opción “Enviar a/ Carpeta Comprimida (en Zip)”.

En Mac la supremacía la ha tenido el formato HQX y el programa más usado es el StuffIt que ya va en su versión 8.0, y que Aladdin Systems, la empresa fabricante, también tiene una versión para Windows (que no funciona tan bien).

Para la anécdota, detrás de Stuffit también está el genio creador de un lolo de 15 años que en 1986 creó un incipiente programa para Mac. Su nombre Raymond Lau (www.raylau.com)

Una nueva oleada

Si antes comprimir servía para ahorrar espacio en los minúsculos discos duros de antaño (para hacerse una idea un videojuego actual ocuparía uno o discos duros antiguos), ahora la compresión de archivos es la panacea para enviar datos de un lugar a otro de la red.

Por eso no es de extrañar que con las nuevas redes de intercambio de archivos y con la llegada de la banda ancha, también nacieran nuevos formatos de compresión.

Uno de ellos es RAR (www.rarlab.com), un formato nuevo que viene a competir con el Zip. Un punto a su favor -cuentan sus creadores- es que puede transformar grandes archivos en varios ficheros pequeños comprimidos. Además de que puede recuperar mejor archivos dañados.

No es raro encontrar en la red archivos con extensiones r01, r02, ro3. Ellos son archivos comprimido en formato RAR que han sido dividido en archivos más chicos. Para abrirlos hay que tener la secuencia completa de archivos y abrirlos con el programa WinRar.

Otro de los formatos nuevos es ACE que promete mayor rango de compresión a una menor velocidad. El programa más utilizado para este tipo de formato es WinAce, de la compañía.

En esencia, los nuevos programas cono WinAce y WinRar permiten comprimir y descomprimir archivos de distintos formatos, asignar contraseñas, utilizar la función drag and drop (arrastrar y soltar) para hacer más fácil su uso, dividir los archivos en partes pequeñas para, por ejemplo, almacenarlos en varios disquetes de 1,44 MB.

La cosas han cambiado. Si antes se comprimía para ahorrar espacio, la premisa ahora es consumir menos recursos de internet.

Y, gracias a los nuevos desarrollos, ya tenemos software y formatos para regodearnos.

Cómo se comprime

La compresión de datos se lleva a cabo utilizando algoritmos (complejas ecuaciones matemáticas) que reconocen patrones de datos en los archivos y los reducen para obtener un archivo de menor tamaño.

En otras palabras, en vez de decir “hay un niño vestido de rojo, hay un niño vestido de rojo, hay un niño vestido de rojo”, el software de compresión traduce eso a “hay tres niños vestidos de rojos”.

El software de compresión reduce los patrones de datos repetidos, pero luego sabe cual es su posición y su versión original al hacer el proceso inverso, es decir, la descompresión.

Generalmente el texto se puede comprimir en un 40%, y los archivos gráficos entre un 20% y 90%, aunque las tasas de compresión dependen del software utilizado.

La compresión no sólo funciona en datos, también se utiliza en música y video. Ahí se utiliza pequeños programitas llamados Codec que interpretan el material comprimido. MPEG y MP3 son archivos comprimidos.

En Internet:
Software antiguo para comprimir:
www.leo.org/information/computer/software/bezug/bezug_software_en.html

El celular se convierte en un walkie-talkie, cambio

Una nueva tecnología móvil está a punto de tocar nuestras puertas. Y promete ser toda una revolución, así como lo fue la aparición de los mensajes cortos (o SMS) en su época.

Se trata de "Push-to-Talk" (pulse para hablar), un sistema que permite utilizar los celulares como un walkie-talkie: con sólo apretar un botón se pueden comunicar con alguien o con un grupo de personas.

Pero, a diferencia de estos aparatos, con los celulares con "Push-to-Talk" (PTT) se pueden realizar "llamadas" entre personas que se encuentren realmente apartadas geográficamente, ya que su alcance depende de la cobertura de la compañía y los convenios que ésta tenga con otras. Así, podemos pensar que tras su masificación "Push-to-Talk" tendría alcance global.

La pregunta que cae de cajón es: ¿qué ventajas tiene "Push-to-Talk" en comparación con una llamada común desde mi celular?

La primera que salta a la vista es la instantaneidad. Aquí la operatoria se reduce a apretar un botón para lograr la comunicación.

La segunda ventaja es que se puede hablar "uno a uno" o "uno a varios". Esto permite que un capataz pueda controlar a una cuadrilla de trabajadores . Sólo basta con que previamente configure en el teléfono un "grupo de trabajo" con el que desea hablar.

Otra ventaja es el bajo costo de implementación para los operadores. "Push-to-Talk" no necesita una red paralela para funcionar, ya que utiliza las redes de datos existentes. Los operadores (como Entel PCS, BellSouth, Telefónica Móvil o Smartcom PCS) sólo necesitan hacer inversiones menores en servidores y software. Además, les estarán dando un uso productivo a las subutilizadas redes de datos.

La última razón, y quizás la más importante, es el precio final para los usuarios. En los países en que ya está operando PTT, la modalidad de pago que se impone es la tarifa plana; es decir, se paga un monto mensual (que oscila entre los US$ 5 y los US$ 60, si es para uso personal o corporativo), y el servicio se puede usar las veces que uno quiera.

Para utilizar la funcionalidad Push-to-Talk se debe poseer un celular especial. Varias empresas han lanzado al mercado modelos acondicionados para estos efectos (ver recuadro).

El teléfono del emisor permite configurar grupos de trabajo. Si soy el jefe de una flota de camiones, puedo hacer un grupo con los conductores y darles una orden simultánea.

Cuando el emisor aprieta el botón, la voz se trasforma en datos, que viajan en paquetes IP, de la misma forma que lo hace un mail por internet; la diferencia es que aquí se hace a través del aire empleando las redes de datos de las compañías de celulares y que utilizan tecnologías GPRS (en el caso de Telefónica y Entel PCS), o 1XRTT (Smartcom y BellSouth).

En la compañía, los datos son procesados por servidores "Push-to-Talk" que dan la orden de reenviarlos al grupo de trabajo definido por el usuario. Los datos viajan raudos nuevamente por el aire a los celulares de los receptores, que se encargan de transformarlos de nuevo en voz.

Entre la emisión y la recepción del mensaje hay una demora de un segundo. Los fabricantes de celulares recomiendan usar esta tecnología para comunicaciones cortas, de preguntas y respuestas. Si va a hablar con la polola, mejor use el método tradicional.

Los nuevos modelitos

BellSouth lanzó su servicio One Touch con el modelo V60p, de Motorola, una versión adaptada del antiguo modelo V60, pero con tecnología "Push-to-Talk" sobre redes CDMA 1x. También permite navegar a través de WAP 1.1 y se sincroniza con el PC.

Sony Ericsson presentó el Z500, que además de ser PTT, graba videos y saca fotografías con una cámara VGA; tiene un pantalla de 65.536 colores y permite cargar juegos desarrollados en Java. Funciona con la tecnología EDGE sobre redes GSM y estará disponible por estos lados en el tercer trimestre de 2004.

Nokia, por su parte, trajo a Chile el 5150, que funciona con tecnología GPRS sobre redes GSM. Además, trae una brújula digital, linterna, radio FM, y es resistente a los golpes y al polvo.
¿Y esta publicidad? Puedes eliminarla si quieres