Desde hace algún tiempo viene creciendo el interés en el término Big Data, lo que presagia que será una tendencia que marcará la reformulación de la manera en que se almacena y procesa la información digital. Probablemente sea un buen momento para clarificar los cambios fundamentales que podrían darse.

Aún no hay acuerdo sobre la manera en que se lo denominará en castellano, pero el concepto de Big Data pasa por el manejo de grandes volúmenes de datos junto a la hipótesis que plantea que, en la empresa moderna, el proceso de definir una estrategia parte del análisis de muchos datos para descubrir lo que esconden, en lugar de tratar de buscar los datos que soporten una estrategia cuyo bosquejo se hace previamente.

Los que creen que primero son los datos, están convencidos de que pueden ayudar a resolver desde los "sencillos" retos de las empresas hasta problemas sociales como la delincuencia y la contaminación. Pero no vamos a entrar en temas filosóficos o políticos. Si nos atenemos a la cuestión netamente tecnológica, el mayor cambio que plantean es que el modelo relacional debe ceder el puesto de estándar del procesamiento de información que ha ocupado por más de una generación. Este reemplazo se justifica por varias razones, particularmente el hecho de que los datos no estructurados crecen más rápidamente que los clásicos datos estructurados.

Los conjuntos de datos semi estructurados crecen aún más desde que son recogidos por los casi omnipresentes dispositivos como cámaras, micrófonos, sensores de aproximación, bitácoras de software, lectores de radio frecuencia, aparatos inalámbricos y siga usted contando. Big Data tiene que ver con conjuntos de datos cuyos tamaños están más allá de la capacidad de las herramientas comunes de software y requiere una tecnología excepcional para  capturar y procesar grandes cantidades de datos dentro de un tiempo tolerable.

Como es cada vez más frecuente, el código abierto ha tomado la delantera en la solución de un problema de tecnología de información. Es así que el primer software de Big Data realmente funcional es un proyecto patrocinado por la Fundación Apache de nombre Hadoop y cuyo objetivo es permitir el procesamiento en paralelo de enormes cantidades de datos haciendo uso de un pequeño número de servidores baratos que pueden crecer hasta cientos de servidores distribuídos, cada uno de los cuales ofrece poder de computación y almacenamiento local.

Hadoop ya se está usando en varias organizaciones y es posible que le haya ayudado a conseguir la mejor tarifa aérea para su reciente viaje o le haya permitido conectarse con un amigo de la infancia en una red social. De hecho Facebook, cuyo tamaño de datos ha sido estimado en 100 petabytes, tiene la mayoría de ellos en un solo almacén de Hadoop y sus principales arquitectos creen que si se hace la minería adecuada en ese gran volumen, tiene el potencial de redefinir nuestra comprensión de la interacción entre humanos y de la manera en que funciona la sociedad.

Para llevar a cabo esta minería, Facebook va a utilizar otro proyecto de código abierto de la Fundación Apache denominado Hive, un sistema de almacenamiento que facilita el resumen y las consultas utilizando un lenguaje parecido al SQL al que han llamado HiveQL. Al mismo tiempo este lenguaje permite a los programadores conectar sus propios mapeadores y reductores cuando es ineficiente expresar cierta lógica en HiveQL.

Es fácil imaginar que las inversiones en recolección y procesamiento de Big Data no serán prioritarias por ahora para los países emergentes como el Ecuador. Seguramente los grandes datos necesitarán de aún más grandes tomadores de decisiones, esperemos  que aquellas organizaciones que lo vayan a hacer tengan gente altamente calificada para manejar los resultados de la minería de datos a gran escala. No vaya a ser que se sigan tomando las mismas malas decisiones sobre la base de información cuya recolección y procesamiento costó tanto.



Subir



“Computación en la nube” es el término en boga en estos días, se usa para describir la dirección hacia la que parece moverse la infraestructura tecnológica. El concepto, de manera simplificada, implica que los recursos computacionales residen en algún lugar en la nube (que tradicionalmente ha sido la representación gráfica de internet) y los usuarios se conectan para consumirlos cuando los necesitan.

Los servicios en la nube ya existen desde hace tiempo, por ejemplo, la mayoría de las páginas web que están en línea, residen en servidores de un proveedor de alojamiento externo a la organización que las publica. Actualmente varias empresas, Google entre ellas, quieren llevar la idea un paso adelante alojando no solo información, sino también aplicaciones,  lo cual es natural considerando que su negocio se basa en poseer una de las mas grandes infraestructuras (o nube) para diversos servicios que las personas utilizan desde sus casas y oficinas. Los argumentos que sustentan la computación en la nube son bastante convincentes: no hay necesidad de comprar y mantener equipos y software, la garantía de disponibilidad de la aplicación, su seguridad y su correcta funcionalidad son parte del servicio que se contrata, y otras ventajas que hacen que, financieramente, cualquier empresario esté tentado a considerar la alternativa.

El argumento contrario, sin embargo, sostiene que, con la computación en la nube, su organización depende de la tecnología de un proveedor exógeno lo cual podría limitar la flexibilidad o inclusive la creatividad. Es decir, para los que todavía la recuerdan, exactamente la misma discusión que desembocó en la era de la computadora personal, en contra de los grandes mainframes centralizados (las nubes de hace treinta años) a los que los usuarios accedían desde terminales “tontos”, solamente para hacer lo que estaban autorizados para hacer, sin ninguna posibilidad de resolver los problemas por sí mismos y dependiendo de que sus necesidades individuales sean lo suficientemente rentables para que el departamento de tecnología las tome en cuenta y las programe en la aplicación.

La computadora personal fue el resultado de la rebelión en contra de la tiranía del centro de cómputo centralizado, la historia parece estar condenada a repetirse con la computación en la nube. Hay que tomar en cuenta que la confiabilidad de los servicios depende de la salud tecnológica y financiera de los proveedores de la nube. Empresas dominantes o alianzas entre empresas podrían crear un ambiente propicio para el monopolio, inevitablemente propenso a arbitrariedades como la que cometió Amazon hace un par de años cuando, de manera unilateral y por una cuestión de derechos de autor, eliminó de los dispositivos de lectura Kindle la novela “1984” de George Orwell sin ninguna notificación previa a quienes, de buena fe, la adquirieron. Irónicamente, en esa novela los censores incineran en el agujero de la memoria los escritos que en determinado momento no convienen al ente central de control.

Computación en la nube tiene tres componentes: software como servicio, plataforma como servicio e infraestructura como servicio. El software como servicio (software as a service, SaaS, en inglés) significa una aplicación completa que tiene una sola versión que se ejecuta en la nube del proveedor dando la posibilidad a varios clientes de utilizarla de manera individual y aislada de las instancias creadas para los otros clientes. Un ejemplo de SaaS es Google Apps que permite a los usuarios crear documentos, hojas de cálculo y presentaciones sin necesidad de adquirir una licencia de software de ofimática y dando, además, la posibilidad de que varias personas colaboren en línea en una versión de los archivos.

La plataforma como servicio consiste en que los clientes utilicen la nube del proveedor como plataforma para desarrollo y alojamiento de sus aplicaciones web. El ejemplo típico de plataforma como servicio es Google App Engine, que permite desarrollar y alojar aplicaciones web de terceros en su nube. Tiene algunas restricciones como que la aplicación debe estar escrita en Python, pero, gracias a que una aplicación de tamaño pequeño o mediano no tiene costo, un desarrollador web puede publicar su trabajo sin inversiones monetarias iniciales y solo pagará el alojamiento cuando su aplicación supere el millón de visitas diarias.

Finalmente, el tercer componente de la computación en la nube es la infraestructura como servicio que significa poner la nube del proveedor a disposición de sus clientes quienes la usarán para almacenar archivos o para crear rápidamente diversos entornos informáticos virtuales para iniciar instancias con distintos sistemas operativos. El ejemplo actualmente más conocido es Amazon Web Services, cuyos servicios EC2 y S3 ofrecen virtualización y servicios de almacenamiento respectivamente.

En conclusión, la computación en la nube puede ser una gran cosa, siempre y cuando se garantice que siempre habrá una diversidad de proveedores entre los que elegir para evitar que las economías de escala y los monopolios acaben con la innovación. Hay que analizar detenidamente los pros y los contras para evitar cometer errores de los que luego sea muy caro recuperarse.



Subir



El confuso y emergente término de “Big Data” no le está haciendo ningún favor al mundo de la tecnología de información (TI). Cientos de productos y tecnologías inundan el mercado y cada uno declara tener el mejor enfoque para aprovechar las nuevas oportunidades que presentan el volumen, la velocidad y la variedad de datos que tenemos a nuestra disposición en estos tiempos que corren.

Antes de entrar en el análisis de lo que significa Big Data (el cual lo dejamos para una próxima oportunidad), es importante diferenciar los datos que tienen una estructura de los que carecen de ella o la tienen a medias.  Empecemos con los datos estructurados, que se llaman así por estar almacenados de una manera perfectamente identificable. La más universal de las formas de dato estructurado se encuentra en una base de datos relacional que permite, a través de SQL (Structured Query Language), seleccionar piezas específicas de información desde una tabla organizada en filas y columnas. Por ejemplo, se puede ubicar todas las filas que en la columna de “Ciudad” tengan un dato particular como “Quito”.

Hay varios beneficios que una empresa puede obtener del análisis de los datos estructurados que guardan los sistemas financieros, los sistemas de inventario, los de cadena de abastecimiento, los que registran ventas y compras, cuando hacen uso de una base de datos relacional. Recordemos algunos de esos beneficios:

  • Cualquier empresa que vende mercadería puede descubrir rápida y fácilmente el producto que se vende mejor durante una época determinada del año. Más específicamente, la empresa puede llegar a relacionar las ventas con un día de la semana, una hora del día o alguna combinación de estos atributos.
  • Una empresa que quiere dirigirse en un momento determinado a un segmento particular de sus clientes o proveedores, puede consultar su base de datos en base a criterios que junten varios atributos como la zona en la que se ubican y la actividad principal a la que se dedican.
  • Un análisis más detallado puede responder la pregunta que frecuentemente se hacen los altos ejecutivos de una empresa ¿Qué tan rentable es cada cliente? Esto tiene que ver por supuesto con el volumen de ventas realizadas a ese cliente, pero también requiere el análisis del costo asociado a esas ventas. Puede darse el caso de que un cliente al que se le factura mensualmente un monto muy alto produzca menor utilidad neta que uno al que se le vende menos pero cuyos costos asociados a descuentos, labores de mercadeo, transporte y atención posventa son más bajos.

 

Por el contrario, los datos semi estructurados tradicionalmente incluyen imágenes, documentos de texto, hojas de cálculo y otros objetos que no son parte de una base de datos. La mayoría de los datos en una empresa moderna pueden ser considerados semi estructurados, para ejemplificar es suficiente decir que  los mensajes de correo electrónico caen en esta categoría. A pesar de que los correos-e puedan estar almacenados en una base de datos, el cuerpo mismo del mensaje realmente contiene texto sin una estructura fija. Igual sucede con un documento escrito en Word: aunque deba cumplir con los formatos que impone cada empresa, el texto que contiene es de forma libre.

Entonces surge el problema de organizar estos datos semi estructurados de alguna manera que permita hacer consultas sobre ellos y, en consecuencia, se los pueda incorporar en los análisis que llevan a la toma de las mejores decisiones de negocios. En cualquier organización hay literalmente miles de archivos que contienen información relevante almacenada en los computadores que integran su red informática; después de todo, para eso se adquirieron esas máquinas en primer lugar ¿no es así?

Si su empresa ha invertido en computadores para sus colaboradores, lo más seguro es que tenga documentos de texto, hojas de cálculo, documentos PDF, mensajes de correo y otras fuentes de datos que aún no son parte formal de los procesos analíticos. Si ese es el caso, la tecnología es la única forma de organizar, clasificar y descubrir información importante que está enterrada en esa montaña de archivos que pueden catalogarse como objetos.  Se da entonces el salto de la base de datos relacional a una objeto-relacional como PostgreSQL que permite hacer búsquedas en documentos con texto en forma libre, añade soporte para objetos geográficos posibilitando su uso como motor de sistemas de información georeferenciados y permite el procesamiento de imágenes dentro de la base de datos agregando funciones para extraer sus atributos.



Subir



Ya es por todos conocido que Linux fue escrito por un programador finlandés llamado Linus Torvalds a la edad de 21 años mientras estudiaba en la Universidad de Helsinki. Lo que no está claro aún es la fecha exacta del nacimiento de Linux. Fórmese su propia opinión.

Agosto 25, 1991 - Torvalds envía un correo-e al grupo comp.os.minix, comentando que desde abril de ese año está trabajando en un pequeño sistema operativo para su computador Intel 386. “Solamente como pasatiempo, no será grande o profesional como GNU” decía. Llamaba a la participación: “me gustaría conocer las características que la mayoría de gente desea. Cualquier sugerencia es bienvenida, pero no prometo desarrollar todas”. Linus Torvalds colocó la versión 0.01 del kernel en el mes siguiente.

Octubre 5, 1991 - Se anuncia la versión 0.02 del kernel, amparada por la licencia de código libre GPL (General Public License) y por primera vez se menciona el nombre Linux. El comentario de Torvalds fue “como les mencioné, 0.01 no salió con ningún ejecutable: fue solamente código fuente para la gente interesada en como lucía linux”. En otro mensaje de la misma fecha escribe: “¿No tienes ningún proyecto y te mueres por afilar tus garras en un sistema operativo que puedas adecuar a tus necesidades? ... Entonces este mensaje posiblemente es para ti”; luego: “Los fuentes de este pequeño proyecto se pueden encontrar en el directorio /pub/OS/Linux”.

Febrero, 1992 - No faltaron las críticas tempranas: el profesor Tannembaum, creador de Minix, calificó de obsoleto a Linux y comentó que si Torvalds hubiera estado en su clase no habría obtenido una buena nota. Sin embargo, lo que vino después ha sido catalogado como una evolución profunda de la forma de desarrollar software.

Marzo 14, 1994 - Se libera la versión 1.0 de Linux que constaba de 176.250 líneas de código.

Mayo, 1996 - Preparando la llegada de la versión 2.0 se convoca a un concurso para elegir el logo de Linux. Luego de recibir las primeras entradas, Torvalds interviene:  "Hasta ahora son aburridos, no estamos buscando una imagen corporativa, queremos algo divertido y simpático con lo que se pueda asociar Linux. Un pinguino robusto (no gordo) que está sentado sonriendo después de atiborrarse de pescado...". La imagen elegida es la de Larry Erwing, la misma que luego será llamada Tux.

Junio, 1996 - Se libera la versión 2.0 del kernel de Linux. La comunidad de usuarios para esa fecha se estima en 3.5 millones. Esto ha sido posible gracias a proyectos como GNU y Free Software Foundation que marcan el camino hacia un desarrollo colaborativo que impide, por licencia, restringir el código de los productos elaborados. Lo cierto es que miles de desarrolladores en todas partes del mundo sumaron sus esfuerzos y aportaron para crear, soportar y seguir mejorando este sistema operativo.

Octubre, 1998 - Microsoft, que hasta entonces había ignorado a Linux, realiza un estudio de competencia cuyo resultado circula mundialmente gracias a una fuga que permite que varios memos confidenciales lleguen hasta la prensa (esta es la famosa serie de memos conocida como Hallowen, por la fecha en que se publica el primero). En esos documentos (http://www.opensource.org/halloween) se dice: “La principal contribución al éxito de Linux es la viabilidad del mercado Unix. El ataque sistemático a Unix en general ayudará a atacar a Linux en particular”. “La base de Linux es la infraestructura de servicios en red, creando nuevos protocolos levantamos la barra y cambiamos las reglas del juego”.

Junio, 2000 - Netcraft, la empresa que realiza la mayor encuesta automática de sitios web, publica que de 7.5 millones de sitios web activos, el 59.56% ejecuta Apache, otro de los proyectos exitosos del código abierto.

Diciembre 12, 2000 - El Presidente de IBM, Lou Gerstner, anuncia que esa compañía invertirá un millardo de dólares en Linux durante el 2001.

Enero, 2001 - Se libera la versión 2.4 del kernel. Se necesitaron cuatro años y medio para llegar aquí desde la 2.0. Es evidente que los cambios al kernel ya no pueden seguir produciéndose en el lapso de semanas como en las primeras épocas.

Febrero 15, 2001 - Microsoft desata una guerra de palabras contra Linux, calificando al modelo de código abierto de no-americano y como una amenaza para todo el sector del software. Jim Allchin, ejecutivo de Microsoft, declara “El código libre es el destructor de la propiedad intelectual”.

Febrero 28, 2006 - IDC estima en 32% la participación de Linux en el mercado mundial de servidores.

Enero, 2010 - Según la más reciente encuesta de Netcraft, de un total de 100 millones de sitios web activos, el 53.84% usa el servidor Apache y en el 80% de esos servidores se ejecuta alguna distribución de Linux. En esta misma encuesta se señala que de los diez proveedores de alojamiento web más confiables, al menos siete usan Linux (para dos de ellos no se pudo determinar el sistema operativo).

También podríamos mencionar que ahora mismo uno de cada cuatro internautas navega el ciberespacio gracias a Firefox, también de código libre, pero esa es otra historia...

Esta es una rápida cronología del sistema operativo Linux, su historia pudo haber sido descrita años antes de su existencia por un gran personaje de nuestra época:

Primero ellos te ignoran,

luego ellos se ríen de ti,

luego ellos te combaten,

luego tu ganas

- Mahatma Gandhi



Subir



Tradicionalmente, al software de código abierto lo desarrolla y refina una comunidad de personas diseminadas por el mundo. Este método de producir software ha generado una serie de percepciones acerca del código abierto, como por ejemplo la falta de funcionalidad, la dificultad de encontrar soporte adecuado o la inseguridad.


A lo largo de la historia del software de código abierto, que desde hace veinte años es la piedra en el zapato de los grandes fabricantes de código propietario, éstos han tratado de combatirlo mediante la creación de ciertos mitos que uno a uno se han ido desmontado por el peso de las evidencias. Pero cada vez que cae uno, siempre hay otro que se pone a volar mediante las grandes maquinarias de propaganda.

Mito 1: El desarrollo de software de código abierto es un pasatiempo

El origen comunitario del software de código abierto lleva a pensar que lo desarrolla un grupo descoordinado de personas que lo hacen en su tiempo libre, después que salen de sus “verdaderos trabajos” o, en el mejor de los casos, jóvenes rebeldes que no tienen mejores cosas que hacer que encerrarse en sus cuartos a escribir programas en C++.

Sin embargo, lo cierto es que la mayoría de proyectos tiene equipos de desarrollo compuestos por los profesionales más capacitados de las grandes empresas. Por ejemplo, el 70% del kernel de Linux es responsabilidad de desarrolladores que cumplen un horario y reciben una remuneración por su trabajo. Empresas como RedHat, IBM e Intel tienen en su nómina personal dedicado a tiempo completo a desarrollar y mejorar este sistema operativo.

Mito 2: Las grandes empresas no utilizan código abierto

Esto solo puede decirlo quien desconoce que Google, Amazon y Facebook (por citar solamente tres) utilizan software de código abierto. Pero no solo las empresas de la web lo utilizan. Desde hace un par de años empresas de todos los tamaños se han dado cuenta de que es preferible invertir en soporte y capacitación que gastar en licencias de software. Prueba de ello son la Bolsas de Valores de Londres, Chicago, Nueva York y Tokio. ¿Por qué lo hicieron? No es porque alguno de estos emblemas del sistema financiero ama el software del código abierto o para castigar a Microsoft u otras compañías de software propietario. Lo hacen porque el código abierto tiende a ser más barato, más rápido, más estable y les da más control sobre sus datos.

Mito 3: El código abierto no es suficientemente seguro

Este mito también se relaciona con el estereotipo de que el software de código abierto lo desarrollan aficionados sin conocimiento que pertenecen a proyectos que no tienen ningún procedimiento de control de calidad. Otro argumento de quienes alegan que el código abierto es más inseguro, es que cualquiera puede revisar el código y encontrar vulnerabilidades que  luego podrían explotar. Lo cierto es que la mayoría de los ataques de virus, por ejemplo,  se dirigen a los sistemas operativos Windows. También es cierto que las más recientes infiltraciones en sistemas empresariales y de gobierno tienen como protagonista al software propietario, que casi siempre reacciona creando un parche luego de ser vulnerado. Según los analistas, el umbral más alto de seguridad del software de código abierto se debe, precisamente, a  la gran cantidad de miradas que escrutan los programas y que resuelven posibles problemas de seguridad de manera muy rápida antes de que usuarios maliciosos puedan hacer uso de la brecha.

Mito 4: No hay las aplicaciones de código abierto que las empresas utilizan

Aunque es verdad que inicialmente el software de código abierto solo existía para la infraestructura, es decir el sistema operativo, las bases de datos y los servicios de red, actualmente existe una impresionante variedad de aplicaciones que tienen mucho éxito en mercados como CRM (gestión de relaciones con clientes), ERP (Planificación de Recursos Empresariales), Inteligencia de Negocios, HRM (gestión de recursos humanos) y CMS (sistemas de gestión de contenidos) que han sido construídas con herramientas de código abierto y que se ejecutan en plataformas de código abierto.

Pero no solo ese tipo mercado está atendido por el software de código abierto, también mercados verticales con altos niveles de especialización como el entretenimiento, la telefonía IP y el sector salud cuentan con el apoyo de aplicaciones de código abierto de gran calidad.

Mito 5: Es muy difícil usar el software de código abierto

Los proveedores de aplicaciones de código cerrado tienden a atrapar al cliente para mantenerlo comprando solamente sus productos evitando que se acerquen a los de la competencia. Lo cierto es que la integración entre herramientas de código cerrado es muy limitada y compleja, lo que encarece su soporte.

El software de código libre, en cambio, busca la integración y el ahorro de esfuerzos en la producción tanto  de programas como de manuales técnicos y de usuario, reduciendo la curva de aprendizaje y facilitando enormemente la utilización de estas herramientas.



Subir



La utilización de software libre está creciendo en todo el mundo y, de manera especial, en los llamados países emergentes lo cual se explica por diversas razones tanto económicas como políticas. En primer lugar debido a que los costos de adquisición y mantenimiento son menores, pero sobre todo porque posibilita la obtención de otros beneficios.

Beneficios como la oportunidad de salir de una grave dependencia tecnológica, fomentar la participación activa de nuestros técnicos en comunidades de innovadores, de deslastrarse del estigma de ser catalogados como sociedad de piratas evitando posibles sanciones  y  de desarrollar aplicaciones integradas acordes con las realidades particulares de cada país.

En Latinoamérica, Brasil es el referente obligado de la implantación de software libre a nivel de estado generando ahorros de 330 millones de dólares anuales que han sido destinados a labores de investigación y desarrollo para la democratización del acceso a la tecnología. El Ecuador también tiene algunos resultados que mostrar tanto en el sector público como en el privado.

En el año 2008  el Gobierno del Ecuador, publica el Decreto Presidencial No. 1014,  el cual establece el uso obligatorio del software libre en la Administración Pública Central. Con esto  en  nuestro país el  software  libre   se  convierte  en  política de estado  en  la que  el  código  abierto,  el software libre,  el  uso  de estándares abiertos   y   el   trabajo   comunitario, facilitan   la   inclusión   digital, la soberanía  tecnológica y  la innovación  local,  optimizando  el  gasto  estatal,  favoreciendo el desarrollo local y promoviendo la integración regional.

Según la Subsecretaría de Tecnologías de la Información, en el Ecuador a diciembre del 2010 había 300 mil usuarios de GNU/Linux en las agencias públicas, el 90% de los portales institucionales y el 70% de los sistemas de correo electrónico están soportados con software libre. Además, según la misma Subsecretaría, actualmente no se adquieren licencias propietarias de software de ofimática, sino en casos excepcionales.

Algunos de los proyectos más representativos del uso del software libre en el sector público son:

Portal de compras públicas. A través de la Ley Orgánica del Sistema  Nacional de Contratación Pública publicada en agosto de 2008  se regulariza todo el proceso de contratación de obras, bienes y servicios que efectúan  las entidades públicas  (ministerios, municipios, empresas públicas, consejos provinciales, hospitales, universidades, escuelas, colegios, instituciones en general). Uno de los aspectos principales que establece la nueva ley es que el proceso de contratación se debe realizar a través de un portal de compras públicas en el que se deben registrar tanto los contratantes como los proveedores.

El objetivo del Sistema Nacional de Compras Públicas y de Consultoría del Ecuador, es la de publicar, agilizar, optimizar, y transparentar los procesos de contratación pública, para lo cual el portal de internet es una herramienta de uso gratuito que facilita el encuentro de la oferta y la demanda entre el sector público y los proveedores del Estado.

Quipux, es un sistema de gestión documental cuyo objetivo es mejorar los tiempos y procesos de envío, recepción y archivo tanto de la correspondencia interna,  como de la que que se da entre instituciones del Estado y desde la ciudadanía hacia los entes públicos. Entre otros, un beneficio de este portal, es el uso de la firma electrónica, la cual  está disponible gracias a la existencia de una entidad estatal debidamente autorizada para suministrar certificados de firma electrónica.

La arquitectura recomendada para el sistema Quipux define a Linux Ubuntu Server como sistema operativo, Postgresql como manejador de base de datos, PHP como lenguaje de programación y Apache como servidor web.

Comprobando que el software libre promueve la integración regional, luego de una visita a Quito para evaluar Quipux, el Ministerio de Relaciones Exteriores de Paraguay solicitó apoyo para la implantación de este sistema informático en esa dependencia, lo cual se llevó a cabo durante el mes de abril de 2012. Igualmente en Venezuela hay miembros destacados de la comunidad Quipux, uno de los cuales ganó el primer premio en el reto de interoperabilidad  de la Campus Party del año pasado con un complemento desarrollado para este software.

SIITH. Se ha anunciado que pronto entrará en producción a nivel nacional la tercera y última fase del Sistema Integrado de Información de Talento Humano que actualmente se encuentra en prueba piloto. La arquitectura general de software del SIITH comprende sistema operativo Linux, servidor de aplicaciones Jboss, base de datos Postgres y lenguaje de programación Java.

Es claro que se han dado pasos importantes hacia la adopción del software libre en el estado ecuatoriano; sin embargo, quedan algunas tareas pendientes. Por ejemplo, hace falta liberar el código de los sistemas además del Quipux que si está disponible para su descarga. También, y muy importante, hay que incluir en la migración a las instituciones educativas, que en las escuelas, colegios y universidades fiscales se instalen laboratorios de informática con máquinas que usen software libre y que también se lo utilice para sus labores administrativas.

El sector privado ecuatoriano también construye proyectos interesantes de software libre, entre ellos sobresale Elastix que está a punto de alcanzar los dos millones de descargas y ha sido traducido a 22 idiomas.

Elastix es una distribución libre de Servidor de Comunicaciones Unificadas que integra en un solo paquete VoIP PBX, fax, mensajería instantánea, correo electrónico y colaboración.

Según el sitio web de la empresa, Elastix es un software que integra las mejores herramientas disponibles para PBX basados en Asterix en una interfaz de uso sencillo. Además añade su propio conjunto de utilidades para constituirse en el mejor paquete disponible en la telefonía de código abierto.



Subir



La gran mayoría de quienes están a cargo la definición de la estrategia de las pequeñas y medianas empresas tiene la percepción de que el uso de la tecnología mejora la productividad y la competitividad.

Así mismo, muchos reconocen que el hecho de poder utilizar Internet así como la creciente integración de las cadenas de producción mediante las aplicaciones informáticas, puede ayudar a vencer las desventajas tradicionales. Sin embargo, se observa poca presencia de Tecnologías de Información en la PYME ecuatoriana y una de las causas es que, aunque se ha realizado alguna inversión, no ha sido de manera adecuada.

Por ejemplo, una de las tecnologías necesarias actualmente es la de Gestión de Relaciones con los Clientes (CRM, por sus siglas en inglés) que ayuda a convertir al cliente en el centro de atención, revirtiendo el ciclo que empezó en los años 60 cuando las empresas se desarrollaban alrededor de sus productos. La operación comenzaba con los diseñadores del producto, luego pasaba a los encargados de construirlo y finalmente a los departamentos de mercadeo que lo ponían a disposición del público mediante campañas diseñadas para llegar al mayor número de personas posible, sin tomar en cuenta necesidades y deseos regionales y, menos aun, individuales.

Después del mercadeo masivo apareció el mercadeo directo que se basó en el correo y los catálogos en los que se invitaba a responder de alguna manera. Estas respuestas eran monitoreadas para identificar rápidamente los mensajes que funcionaban mejor. Sin embargo, sin importar lo sofisticado de los mecanismos de recolección y análisis, este tipo de campañas se podían considerar un éxito si tenían una respuesta de 5%

En la medida en que mejoraba la tecnología de computación, fue posible almacenar mayor cantidad de información de los clientes y con ella, los analistas comenzaron a asociar los productos con las personas que los compraban. Esto permitió descubrir que la información de los clientes es tan o más importante que la información sobre el producto. Así nació el “mercadeo por grupo objetivo” que es la práctica de promover un producto o servicio en un subconjunto de los clientes y los prospectos. Segmentando los mercados, las empresas pudieron tener una comunicación más especializada sobre sus productos y un mayor enfoque en sus segmentos más productivos.

 



Subir



Una encuesta realizada a más de 350 Gerentes de Tecnología reveló que el rol de los encargados de informática está cambiando gradualmente de “técnico experto” a “planificador estratégico" y vínculo entre quienes toman decisiones.

Otro dato interesante del reporte indica que el 64% de los Departamentos de Sistemas tiene como la más alta prioridad de inversión para el año 2011 las aplicaciones de Inteligencia de Negocios (IN).

Una aplicación de IN es diferente de los sistemas tradicionales de procesamiento de transacciones (OLTP, por sus siglas en inglés) como por ejemplo ventas, compras y cuentas por pagar, los cuales están orientados al manejo de las operaciones que diariamente realiza una empresa. Las aplicaciones de Inteligencia de Negocios se construyen con la finalidad de analizar una gran cantidad de datos de manera que las decisiones se tomen basándose en hechos y no en la intuición. Para poner esta diferencia en perspectiva, considere la comparación entre la micro y la macroeconomía; la primera se encarga de estudiar el comportamiento de cada individuo u hogar, en cambio la segunda examina un modelo completo y la manera en que interactúan los diversos sectores. Los datos macroeconómicos son esenciales para que el gobierno, a todos los niveles, tome decisiones como el número de escuelas a construir en cada pueblo o ciudad.

Las aplicaciones de IN toman datos de fuentes internas y externas para generar la información que cualquier empleado puede utilizar para tomar las decisiones que le corresponden de mejor manera y con mayor rapidez. Existen tres categorías genéricas de aplicaciones de Inteligencia de Negocios: históricas, analíticas y predictivas. Haciendo analogía con un carro, la IN Histórica es como ver por el espejo retrovisor, los datos son recogidos de las aplicaciones que procesan las transacciones y su análisis posterior ayuda a quien toma decisiones a comprender que pasó y cuales situaciones fueron buenas o malas. Por ejemplo, mediante este tipo de proceso se puede decidir el conjunto de productos óptimos para cada departamento en cada una de las tiendas. Desde el punto de vista de la construcción, estas son las aplicaciones más sencillas.

La IN Analítica es generalmente un proceso iterativo. Los datos se recogen, al igual que en el caso anterior, de los sistemas OLTP pero se añaden datos de tiempo real, finalmente, el proceso se hace por ensayo y error. Es muy similar a conducir un carro, el chofer mezcla información que ya posee con datos que le muestran el tacómetro y el velocímetro para llevar el vehículo de un sitio a otro. Por ejemplo, una aplicación de este estilo podría ayudar al gerente regional a afinar las políticas de precios y promociones diariamente, basado en los datos de las cajas junto a los niveles de inventario en la tienda y el centro de distribución. La empresa necesita madurez para enfrentar decisiones incorrectas, en lugar de buscar culpables, hay que revisar el proceso para identificar las causas de la recomendación errónea, remediar la causa, y volver a usar el sistema.

La categoría final es la IN Predictiva. En nuestra analogía del carro, esto equivale a las luces que nos revelan lo que viene adelante. Estas aplicaciones integran datos de fuentes internas y externas a la organización, para, junto al uso de herramientas estadísticas y matemáticas, generar información acerca de posibles eventos futuros. Por ejemplo, basados en estudios demográficos y macroeconómicos adquiridos a una empresa especializada, se puede intentar predecir el comportamiento de los clientes con respecto a la demanda de cierto producto. Evidentemente, este tipo de aplicación, que depende de fuentes externas, no es sencilla de construir y por ello son más populares las aplicaciones que intentan prever el futuro mediante la proyección de los datos históricos.

IN histórica: ¿Qué pasó?

IN analítica: ¿Qué pasó y por qué?



Subir



Artículos Tecnología