La internet que conocemos ahora nació en las universidades norteamericanas a principios de los años noventa del siglo XX y su función consistía en comunicar conocimientos. Posteriormente, se embarcaron las empresas, y con ellas el dinero y la publicidad. Pero internet nunca ha dejado de ser un gran medio de comunicación y de colaboración entre iguales, una fabulosa aula llena de conocimientos y de personas que los crean y los comparten.
Además, la creación y la difusión de contenidos se ha facilitado hasta tal punto, que ahora cualquiera puede publicar sus experiencias, opiniones y conocimientos mediante un simple blog. Por ello, la blogosfera, es decir, el conjunto de blogs productivos, se ha convertido en una feria del conocimiento donde cada cual expone sus contenidos y todos se benefician de ello. La creatividad es el punto donde confluyen todos los blogs, y la creatividad es el objetivo principal del proceso de enseñanza y aprendizaje que perseguimos los docentes desde nuestras aulas, ya sean las de cuatro paredes o las virtuales.
El blog contribuye a la formación personal
En este contexto, decir que un blog es educativo me parece una redundancia, pues con los blogs y otros gestores de contenido (CMS) se consiguen muchos de los fines educativos que persigue la enseñanza tradicional y muchos otros objetivos nuevos que han surgido con el nacimiento de internet y que no pueden soslayarse en la nueva sociedad del conocimiento. Reflexionemos sobre los siguientes puntos:
1. La educación ha dejado de ser un coto de los docentes, pues cualquiera que maneje un blog puede no sólo mostrar sus experiencias y sus conocimientos, sino también enseñarlos de forma didáctica. En este sentido, muchos docentes todavía no son conscientes de este reto, y por tanto su trabajo puede ser superado por otras personas que, sin saberlo muchas veces, contribuyen con sus contenidos a enriquecer los conocimientos de cualquier estudiante.
2. Los estudiantes se crean su propio conocimiento, y eso conlleva la superación de las materias curriculares tal y como se les enseña en los centros educativos. Los estudiantes tienen a su disposición todo un arsenal de conocimientos en la Web, y los docentes sólo podemos guiarlos para el buen aprovechamiento de su trabajo. Cada vez hay más casos de estudiantes que tienen bajas calificaciones académicas, pero que son capaces de construir todo un blog lleno de experiencias surgidas de su contacto con la Red. Como se ve, la motivación personal es ahora el motor del aprendizaje.
3. La educación ya no se centra solamente en la adquisición de conocimientos, sino en la formación personal continua no sólo de las personas en edad escolar. Todos debemos aprender a aprovecharnos de la nueva sociedad del conocimiento que acaba de nacer, y quien no lo haga, no podrá sobrevivir cultural y laboralmente hablando. Y esta formación personal se tiene que expresar en forma de creatividad, que no es otra cosa que la puesta en práctica de los conocimientos adquiridos.
4. La comunicación se ha convertido en un aspecto fundamental de la nueva enseñanza en internet, y esto brilla por su ausencia en los centros escolares. Me refiero a la comunicación del estudiante con otras personas que persiguen fines parecidos. Esto se consigue en internet de forma sencilla y natural simplemente participando en la Red con un blog. Los estudiantes ya lo hacen de variadas formas, y eso los enriquece en todos sus aspectos personales, pero hay que conseguir que también les sirva de una forma más concreta para aprender.
5. Los contenidos de internet son principalmente textuales, pero se enriquecen con la multimedia. De esta forma, la publicación rápida y sencilla en internet ha conseguido que se valore la palabra escrita, que estaba en trance de desaparición hace sólo unos años. Esto a su vez ha provocado una toma de conciencia sobre la escritura y sobre la apropiada estructuración de los contenidos. Pero los contenidos se han visto enriquecidos por la inclusión de elementos multimedia en internet, lo que ha favorecido el aspecto educativo de la Red.
Observatorio Tecnológico. Diciembre de 2007
martes, 7 de octubre de 2008
viernes, 3 de octubre de 2008
EL MUNDO DE LOS BLOGS
Los blogs abren las puertas de la creación a aquellos que antes eran sólo espectadores
Un blog, o bitácora, es lo más parecido a una página en blanco en formato digital. Se trata de páginas web muy sencillas de crear y mantener que sirven para publicar textos, imágenes o vídeos periódicamente. En estas páginas web se muestran los contenidos en orden cronológico inverso: los últimos textos aparecen en primer lugar. Así, los lectores asiduos pueden seguir a sus autores preferidos con comodidad.
Plataformas como "Blogger" ponen al alcance de cualquier persona con ganas de sacar adelante su blog las plantillas y los programas para escribir y publicar en Internet de manera completamente gratuita. No son más difíciles de usar que el correo electrónico.
Plataformas como "Blogger" ponen al alcance de cualquier persona con ganas de sacar adelante su blog las plantillas y los programas para escribir y publicar en Internet de manera completamente gratuita. No son más difíciles de usar que el correo electrónico.
Para los autores: sencillo y económico
Con este sistema el usuario adquiere una dirección de Internet en la que estará su blog. Esta dirección es del tipo "www.usuario.blogspot.com" aunque ahora "Blogger" ofrece también direcciones personalizadas si el usuario paga el dominio, unos 9 euros al año). Esto quiere decir que a los demás usuarios les bastará con teclear esta dirección en su navegador para acceder a las páginas del usuario, a no ser que éste indique expresamente que son privadas. ¿Y para escribir una nueva entrada en blog? El proceso es tan sencillo como enviar un email.
Con el tiempo, y si el entusiasmo no se ha perdido, se puede acceder a plataformas más complejas de edición de blogs, como WorldPress o MovableType, que tienen muchas más posibilidades creativas que "Blogger", pero que requieren de un servidor propio y conocimientos bastante más avanzados.
Los adolescentes plasman sus sentimientos en las páginas en blanco de sus diarios y los adultos mantienen correspondencia por carta, por correo electrónico... Pero, a diferencia de la correspondencia escrita a tinta, o de los diarios íntimos guardados en cuadernos, el destinatario de estos nuevos escritos digitales ha pasado de ser una sola persona (o unas pocas) a convertirse en la comunidad global. El blog es un punto intermedio entre el exhibicionismo y el discurso público, ya que es un individuo el que habla a todos los demás y les cuenta su vida o sus pensamientos. Y el lector es libre de entrar en esa página web concreta o de irse a otra.
Dependencia de quien lo crea y de quienes lo leen
Sin embargo, y a pesar de ser un fenómeno que se desarrolla en un entorno sumamente mecanizado, un blog depende por entero del esfuerzo humano, de la voluntad de escribir en él permanentemente; de mostrar vídeos o imágenes digitales captadas con una cámara. El blog es un organismo vivo que se alimenta de la comunidad; depende tanto del que lo crea y actualiza como de los que lo leen o miran, y que se hacen a la vez eco de su existencia en sus respectivos blogs. El blog nace en una sola persona, pero su objetivo es trascender a toda una comunidad.
Explicada la esencia de los blogs, tal vez sea más fácil entender la razón por la que se prevé que para mediados de 2007 los blogs alcancen su máximo y luego comiencen a decaer: simplemente cuando pase la moda la mitad de los "bloggers" (escritores de blogs) dejarán de escribir, por lo que sus "creaciones" se perderán en la inmensidad de la "blogosfera" (la comunidad de todo los blogs). Eso sí, la otra mitad continuará adelante.
El usuario es el protagonista
Entre los internautas que no se desaniman se está creando una verdadera sociedad digital en la que los usuarios no dependen exclusivamente de los periódicos, las revistas o las editoriales para informarse, entretenerse o disfrutar de buena literatura. En la "blogosfera" no hay directores de periódico que digan qué noticia vale más que otra ni críticos literarios que señalen el nuevo genio.
En el mundo de los blogs, es la comunidad de "bloggers" y lectores (cientos de millones de personas) los que al alimón, y casi sin pretenderlo, ensalzan un determinado blog porque contiene las noticias más interesantes, los mejores poemas, las fotografías digitales más bellas, las reflexiones más acertadas o los comentarios más ingeniosos. Esto es así hasta tal punto que en 2006 la revista Time designó como protagonista del año (el rostro que ocupa su portada de diciembre) a... ¡todos los usuarios de Internet.
Es tal la cantidad de blogs que hay en Internet (3 millones actualmente) y son tantos los miles que se crean cada día, los que dejan de actualizarse o los que sencillamente apenas contienen información, que lo recomendable es utilizar los buscadores de blogs, de gran importancia para los lectores (novatos o avezados) y también para los propios creadores de blogs (los "bloggers") porque suelen incluir mediciones de popularidad que alimenta el combustible que mueve a la mayoría de estas webs: el ego de sus autores.
El primer buscador especializado fue Technorati, que se basa en las etiquetas que les ponen los bloggers a los comentarios que escriben ("tags") para ordenar la "blogosfera". Después Google contraatacó con Google Blog Search, que ofrece información más "fresca" (actualizada) que la versión convencional del buscador. En cualquier caso, en muchas ocasiones todo se resume en encontrar un buen punto de partida: los blogs suelen recomendar en una columna en su parte izquierda o derecha a otros blogs. Si damos con un blog que nos apasione, podremos ir saltando de blog en blog para tejer una red de nuevos medios que acabaremos por consultar a diario.
El primer buscador especializado fue Technorati, que se basa en las etiquetas que les ponen los bloggers a los comentarios que escriben ("tags") para ordenar la "blogosfera". Después Google contraatacó con Google Blog Search, que ofrece información más "fresca" (actualizada) que la versión convencional del buscador. En cualquier caso, en muchas ocasiones todo se resume en encontrar un buen punto de partida: los blogs suelen recomendar en una columna en su parte izquierda o derecha a otros blogs. Si damos con un blog que nos apasione, podremos ir saltando de blog en blog para tejer una red de nuevos medios que acabaremos por consultar a diario.
Consumer Eroski. Abril 2007
NNTT-TIC-NTIC-TAC EN LA EDUCACIÓN
Vamos a intentar situarnos, no en los orígenes puros y duros de la informática como tal, sino en los que cimentaron y posibilitaron el desarrollo e incorporación de las tecnologías, mayoritariamente la informática, al ámbito educativo. Hace algunos añitos, debía ser la década de los 70, nacieron los primeros procesadores que integraban en un solo circuito los elementos básicos del ordenador. A partir de ese momento, inicios de los 80, empezamos a oír hablar de computadores, de ordenadores y sobre todo de "pecés". Aunque las empresas estadounidenses Apple Computer, Commodore Business Machines y Tandy Corporation, así como la francesa Micral, habían lanzado máquinas en los años 70, fue el 12 de agosto de 1981 cuando IBM (International Business Machines) presentó el primer PC (Personal Computer). Se trataba de una máquina que pesaba nada menos que doce kilos, tenía un monitor en blanco y negro de 11.5 pulgadas, 16 kilobytes de memoria RAM (o sea 0.01563 Mb o 0.00002 Gb), disponía de un microprocesador Intel 8088 de 16 bits a 4,7 megahercios (MHz), y tenía un precio cercano a los 3.000 dólares de entonces (unos $ 6.500 de hoy día).Por aquel entonces comenzábamos a oír hablar de las nuevas tecnologías (NNTT) y en las escuelas y colegios todavía ni se pensaba en que aquellos ingenios electrónicos podrían llegar algún día a las aulas.
Sin embargo, al poco tiempo, en los inicios de la década de los 80, aquellas maquinitas hicieron sus primeras incursiones en algunos centros osados, innovadores y con posibles económicos y algunos "elegidos" profesores tuvieron la suerte de dar los primeros pasos informáticos aprendiendo un lenguaje de programación llamado BASIC, que aunque nacido en 1964 no se hizo popular hasta que en HU1975UH apareció el HUMicrocomputadorUH HUAltair 8800UH que era el ordenador que empezaba a crear furor por el mundo universitario y empresarial. Pero el más famoso en los inicios de la informática educativa (o mejor de la informática en los colegios) fue el PET (Personal Electronic Transactor) de Commodore que nacía con la etiqueta de HUordenador domésticoUH hacia el final de los 70 y principios de los 80.
Otro momento estrella de la informática, en enero de 1984, fue la aparición del HUApple Macintosh 128KUH con el HUel primer sistema operativo Mac OSUH un sistema operativo totalmente revolucionario, totalmente gráfico e intuitivo, que funcionaba con un ratón en lugar de con las teclas del ordenador que casi se utilizaban exclusivamente para escribir y además en la pantalla se veían iconos y gráficos, había menús y barras de desplazamiento que se movían con el puntero del ratón. ¡Era fantástico!. Podemos decir que el Macintosh 128K de 1984 era “igual” al Windows 95, sólo que once años antes. El problema de Apple para la implantación y generalización de sus ordenadores y su sistema operativo Macintosh (más tarde Mac OS) no fue de producto sino de marketing (al menos en Europa ya que en Estados Unidos fue un éxito de ventas)
En 1985 empiezan a aparecer programas que se incorporan a la enseñanza en centros de estudios, son los primeros tutoriales de ofimática que sirven para aprender el sistema operativo de moda en aquel entonces MS-DOS (de Microsoft) y paulatina y progresivamente aplicaciones como Frame Work, Wordstar, AmiPro, Wordperfect, DBASE, WINDOWS (¡Oh, Windows!) Se empiezan a enseñar lenguajes de programación como PASCAL, C, COBOL, BASIC, DBASE... Comienzan a instalarse las primeras aulas de informática en los centros.Poco más o menos por esos años (84-86) la informática cobra carta de naturaleza en la administración educativa y se crean los primeros programas para la implantación y desarrollo de las nuevas tecnologías en el mundo educativo. Y casi siempre que se habla de NNTT se está hablando de informática fundamentalmente.
A lo largo de estos más de 25 años, aproximadamente, que viene durando este proceso de implantación de las nuevas tecnologías en la educación, la informática, ha sido tratada desde diferentes frentes que podemos resumir en tres y casi cronológicamente ordenados:
1.- La Informática como materia de estudio: aprendizaje de programas, sistema operativo, redes, en los últimos diez o doce años la navegación por Internet...
2.- La Informática como herramienta administrativa que ayuda a la gestión de los centros, o sea ofimática aplicada a la gestión educativa: actas, contabilidad escolar, dossieres, documentos oficiales del centro, base de datos de la biblioteca, circulares a los padres, etc.
3.- La Informática como herramienta o recurso educativo. La más importante, la que sirve para el trabajo diario en el aula. Por eso mismo es la que más cuesta de implantar y desarrollar, ya que supone un cambio metodológico en la manera de enseñar y de enseñar a aprender. Supone entender al alumnado desde otra óptica, cambiar el rol docente, preparar las clases de manera diferente, asumir que no se sabe todo, conocer programas, aplicaciones, utilidades, recursos, páginas web que ayuden al alumnado a mejorar en su proceso de aprendizaje y adquisición de conocimientos y competencias.
Llega Internet y hablamos de TIC
Aunque es bien sabido que los primeros pasos de Internet datan de los años 50, se desarrollan en los 60 y mejoran en los 70 (sobre todo a finales de 1969 con el nacimiento de ARPANET el precursor más claro de Internet), es en la década de los 80 cuando se ponen las bases técnicas y los cimientos infraestructurales del Internet que conocemos. Ahora bien, cuando realmente Internet despega y se desarrolla con gran fuerza es a partir de los 90, con el nacimiento de la World Wide Web "un sistema de documentos de HUhipertextoUH y/o hipermedios enlazados y accesibles a través de HUInternetUH. Con un HUnavegador WebUH, un usuario visualiza HUpáginas webUH que pueden contener HUtextoUH, HUimágenesUH, HUvídeosUH u otros contenidos HUmultimediaUH, y navega a través de ellas usando HUhiperenlacesUH"FA partir de ese momento, Internet, aporta valor añadido a la informática y a las comunicaciones y, cada vez más, se va simultaneando en término de nuevas tecnologías con el de TIC, Tecnologías de la Información y la Comunicación. Probablemente este cambio terminológico obedece a dos factores: por un lado porque las nuevas tecnologías, como todas las cosas nuevas, tienen un carácter perecedero y es evidente que algo que hoy es nuevo no puede seguir siéndolo después de diez o más años. Por otra parte, la aparición de Internet acelera la comunicación y, consecuentemente, el flujo de información generado de manera exponencial por lo que, parece obvio adjetivar aquellas Tecnologías (que ya no son nuevas) con términos de actualidad, no perecederos (Información y Comunicación) y así se va suprimiendo del antiguo nombre lo de "nuevas". Esta supresión no ha supuesto la desaparición del término, todavía se sigue utilizando y actualizando fusionándolo con la nueva terminología. Así hay quien habla de las NTIC, es decir, las Nuevas Tecnologías de la Información y la Comunicación.
A lo largo de estos años las universidades y centros educativos han sido dotados con más o menos cantidades de ordenadores, impresoras, software, conexión a Internet, etc. etc. Se han desarrollado multitud de cursos de formación del profesorado. Se han realizado esfuerzos inversores en dotar a los centros de ordenadores de sobremesa, portátiles, tablets PC, pizarras digitales, redes inalámbricas, etc.
A lo largo de estos años las universidades y centros educativos han sido dotados con más o menos cantidades de ordenadores, impresoras, software, conexión a Internet, etc. etc. Se han desarrollado multitud de cursos de formación del profesorado. Se han realizado esfuerzos inversores en dotar a los centros de ordenadores de sobremesa, portátiles, tablets PC, pizarras digitales, redes inalámbricas, etc.
“La historia de las civilizaciones es la historia de sus tecnologías” y esta era en la que estamos inmersos es la civilización de las tecnologías de la información y la comunicación y es la época en la que nos toca vivir.
“Y así, ante estos nuevos retos que se plantean a la educación y a los educadores del siglo XXI, no nos quedará más remedio que hacerles frente, pero no oponiéndonos sino acompañando esos cambios, estimulándolos, ayudando a nuestro alumnado a digerirlos y a que sean capaces de convertir esa información en conocimiento. Por ello, necesariamente, el papel de profesores y profesoras, maestros y maestras debe pasar por una inmersión en las TIC, porque son nuestras pizarras, nuestros libros, nuestras herramientas educativas de este siglo. En este sentido viene a colación una frase de, Bill Gates, que afirma en su libro Camino al futuro: “Puedo decir enfática e inequívocamente que la tecnología no sustituirá a los profesores... El papel futuro de los profesores pivotará sobre la tecnología...”
PROFESORES DEL SIGLO XIX EN EL SIGLO XXI
Está claro pues que el papel del profesorado está cambiando, el maestro ha dejado de ser el sabelotodo que imparte su doctrina, sus lecciones magistrales, su saber al alumnado que es el receptor, el depositario, el recipiente en el que se vierten los conocimientos del maestro.
Ahora resulta que el conocimiento "ni se crea ni se destruye, sólo se transforma" y se construye mediante la interacción de una serie de factores entre los cuales, el maestro, es uno más, importante, eso sí, y seguramente clave en un buen proceso de enseñanza aprendizaje. Pero para que así sea, el maestro, la maestra, el profesor y la profesora han de asumir nuevos roles:
Mediador entre el alumno y los contenidos de aprendizaje
Motivador para acercar las materias objeto de aprendizaje al alumnado, para ayudar a que disfrute aprendiendo, estimulando su curiosidad para que el aprendizaje se convierta en conocimiento.
Facilitador para ayudar a comprender conceptos, procedimientos, herramientas de mayor complejidad.
Orientador y guía en los procesos cognitivos, en la búsqueda de soluciones a los problemas que se plantean, a establecer relaciones, a saber elegir...
Como decía Piaget, "el maestro debe proveer un ambiente en el cual el alumno experimenta la investigación espontáneamente"
Para llevar a cabo esta tarea, el educador, el docente, tiene a su disposición distintos medios, instrumentos, herramientas de naturaleza distinta, entre ellas las TIC, pero no sólo las TIC, también puede echar mano de diversas técnicas y aquí es donde entran en juego las TAC: Técnicas para el Aprendizaje Colaborativo. Es decir, técnicas que posibilitarán el aprendizaje en red, de manera colaborativa con el apoyo y gracias a la ayuda de las TIC. Además otro factor que entra en liza en esta nueva etapa es la aparición, cada vez con más fuerza, de la llamada web 2.0, y la web semántica que están haciendo que el paradigma de la enseñanza / aprendizaje esté cambiando aceleradamente, debido a la filosofía que subyace tras ella.
La web semántica, se basa en el significado, es decir, toda la ingente cantidad de información que hay en la Red, variada y heterogénea, tiene un sistema de etiquetado, de marcadores, que hacen que los programas y los motores de búsqueda puedan simplificar el trabajo de las búsquedas y agilizar los procesos para encontrar y tratar cantidades de información en un mínimo tiempo de manera automática.
Gracias a estas tecnologías, que permiten agilizar y tratar enormes flujos de información de manera automática, se desarrolla y complementa la web 2.0, que es la red social, más abierta, democrática y participativa en contraposición a la web tradicional que ha dado en llamarse web 1.0.
La red 2.0 la hacemos los usuarios a través de nuestras aportaciones, comentarios y a la interacción de las personas y de las redes. Se pasa de la red 1.0 en la que surfeamos a la red 2.0 en la que trabajamos colaborando en red. Esta nueva Internet está hecha para co-crear, para co-participar. Y los centros educativos deberán asumir que ésa es la realidad que existe fuera de las aulas y con esa realidad deberán afrontar su trabajo, su tarea docente. El problema es que la mayoría de los equipos directivos de los centros no están capacitados para usar la web 2.0 y ése es otro gran problema que se nos plantea, que, hoy por hoy, tiene difícil solución y en el que no vamos a entrar en este artículo.
El término web 2.0 fue utilizado por primera vez por Dale Dougherty de HUO’Reilly MediaUH en una conferencia dentro de un evento en el que se hablaba del renacimiento y evolución de la web y en la que se constataba como están surgiendo constantemente nuevas aplicaciones y sitios con sorprendentes funcionalidades. Ese fue el arranque para la HUWeb 2.0 conferenceUH, en 2004, y se ha institucionalizado como un evento anual que se celebra en San Francisco. Pues bien, en esa charla del Web Conference se habló de los principios que tenían las aplicaciones Web 2.0 y que son los siguientes:
- La web es la plataforma
- La información es lo que mueve Internet
- Efectos de la red movidos por una arquitectura de participación.
- La innovación surge de características distribuidas por desarrolladores independientes.
Estos principios podemos resumirlos en tres ideas:
Comunidad: se genera colaboración en red ya que es el usuario quien aporta los contenidos, interactúa con otros usuarios, crea redes de conocimiento.
Tecnología: un mayor ancho de banda permite transferir información a una velocidad antes inimaginable. En lugar de paquetes de software, podemos tener servicios web y nuestro Terminal puede ser cliente y servidor al mismo tiempo y en cualquier lugar del mundo.
Arquitectura modular: favorece la creación de aplicaciones complejas que funcionan en línea de forma más rápida y a un menor coste lo cual está posibilitando la aparición de multitud de servicios que reemplazan las aplicaciones tradicionales de escritorio.
Pues bien, visto lo visto, podríamos preguntarnos: en Siglo de la Información, en la época de la web 2.0 ¿qué pinta el profesorado 1.0…?
Bueno, tendríamos que romper una lanza a favor de ellos, ojalá hubiese muchos profesores y profesoras 1.0. El problema, probablemente, radica en que todavía no hay profesores 1.0., sino profesores del siglo XIX en el siglo XXI.
Ahora resulta que el conocimiento "ni se crea ni se destruye, sólo se transforma" y se construye mediante la interacción de una serie de factores entre los cuales, el maestro, es uno más, importante, eso sí, y seguramente clave en un buen proceso de enseñanza aprendizaje. Pero para que así sea, el maestro, la maestra, el profesor y la profesora han de asumir nuevos roles:
Mediador entre el alumno y los contenidos de aprendizaje
Motivador para acercar las materias objeto de aprendizaje al alumnado, para ayudar a que disfrute aprendiendo, estimulando su curiosidad para que el aprendizaje se convierta en conocimiento.
Facilitador para ayudar a comprender conceptos, procedimientos, herramientas de mayor complejidad.
Orientador y guía en los procesos cognitivos, en la búsqueda de soluciones a los problemas que se plantean, a establecer relaciones, a saber elegir...
Como decía Piaget, "el maestro debe proveer un ambiente en el cual el alumno experimenta la investigación espontáneamente"
Para llevar a cabo esta tarea, el educador, el docente, tiene a su disposición distintos medios, instrumentos, herramientas de naturaleza distinta, entre ellas las TIC, pero no sólo las TIC, también puede echar mano de diversas técnicas y aquí es donde entran en juego las TAC: Técnicas para el Aprendizaje Colaborativo. Es decir, técnicas que posibilitarán el aprendizaje en red, de manera colaborativa con el apoyo y gracias a la ayuda de las TIC. Además otro factor que entra en liza en esta nueva etapa es la aparición, cada vez con más fuerza, de la llamada web 2.0, y la web semántica que están haciendo que el paradigma de la enseñanza / aprendizaje esté cambiando aceleradamente, debido a la filosofía que subyace tras ella.
La web semántica, se basa en el significado, es decir, toda la ingente cantidad de información que hay en la Red, variada y heterogénea, tiene un sistema de etiquetado, de marcadores, que hacen que los programas y los motores de búsqueda puedan simplificar el trabajo de las búsquedas y agilizar los procesos para encontrar y tratar cantidades de información en un mínimo tiempo de manera automática.
Gracias a estas tecnologías, que permiten agilizar y tratar enormes flujos de información de manera automática, se desarrolla y complementa la web 2.0, que es la red social, más abierta, democrática y participativa en contraposición a la web tradicional que ha dado en llamarse web 1.0.
La red 2.0 la hacemos los usuarios a través de nuestras aportaciones, comentarios y a la interacción de las personas y de las redes. Se pasa de la red 1.0 en la que surfeamos a la red 2.0 en la que trabajamos colaborando en red. Esta nueva Internet está hecha para co-crear, para co-participar. Y los centros educativos deberán asumir que ésa es la realidad que existe fuera de las aulas y con esa realidad deberán afrontar su trabajo, su tarea docente. El problema es que la mayoría de los equipos directivos de los centros no están capacitados para usar la web 2.0 y ése es otro gran problema que se nos plantea, que, hoy por hoy, tiene difícil solución y en el que no vamos a entrar en este artículo.
El término web 2.0 fue utilizado por primera vez por Dale Dougherty de HUO’Reilly MediaUH en una conferencia dentro de un evento en el que se hablaba del renacimiento y evolución de la web y en la que se constataba como están surgiendo constantemente nuevas aplicaciones y sitios con sorprendentes funcionalidades. Ese fue el arranque para la HUWeb 2.0 conferenceUH, en 2004, y se ha institucionalizado como un evento anual que se celebra en San Francisco. Pues bien, en esa charla del Web Conference se habló de los principios que tenían las aplicaciones Web 2.0 y que son los siguientes:
- La web es la plataforma
- La información es lo que mueve Internet
- Efectos de la red movidos por una arquitectura de participación.
- La innovación surge de características distribuidas por desarrolladores independientes.
Estos principios podemos resumirlos en tres ideas:
Comunidad: se genera colaboración en red ya que es el usuario quien aporta los contenidos, interactúa con otros usuarios, crea redes de conocimiento.
Tecnología: un mayor ancho de banda permite transferir información a una velocidad antes inimaginable. En lugar de paquetes de software, podemos tener servicios web y nuestro Terminal puede ser cliente y servidor al mismo tiempo y en cualquier lugar del mundo.
Arquitectura modular: favorece la creación de aplicaciones complejas que funcionan en línea de forma más rápida y a un menor coste lo cual está posibilitando la aparición de multitud de servicios que reemplazan las aplicaciones tradicionales de escritorio.
Pues bien, visto lo visto, podríamos preguntarnos: en Siglo de la Información, en la época de la web 2.0 ¿qué pinta el profesorado 1.0…?
Bueno, tendríamos que romper una lanza a favor de ellos, ojalá hubiese muchos profesores y profesoras 1.0. El problema, probablemente, radica en que todavía no hay profesores 1.0., sino profesores del siglo XIX en el siglo XXI.
Juan Miguel Muñoz. Revista Spiral, España
Leer artículo siguiente: EL AULA DIGITAL. http://www.semana.com/noticias-vida-moderna/aula-digital/116522.aspx
jueves, 2 de octubre de 2008
LA SOCIEDAD DE LA INFORMACIÓN Y LAS N.T.I.C.
Desde los albores de la humanidad, el hombre siempre ha buscado una forma de comunicación con sus congéneres. Cobijado por su entorno, el hombre primitivo tuvo a bien, utilizar las paredes de piedra de las cavernas como el medio de comunicación. Hoy iniciando el siglo XXI, el Arte Rupestre como expresión máxima de comunicación en su época, es orgullo y objeto de investigación para muchos en el mundo. Ese fue el inicio, vendrían más innovaciones tecnológicas durante toda la historia de la humanidad, que colocarían su grano de arena, hasta el avance revolucionario que vivimos en la actualidad con las Nuevas Tecnologías de Información y Comunicaciones.
La sociedad de la información en que vivimos actualmente, alimentada por todas las innovaciones tecnológicas, ha generado cambios radicales y sustanciales en todos los sectores productivos de la economía, la política, la sociedad y la cultura de todas las naciones donde la han acogido como factor principal para su desarrollo.
Las Nuevas Tecnologías de Información empiezan su incursión en una primera fase acondicionando toda la parte informática, valga decir hardware y software, en las áreas de las empresas. La capacitación del personal no se hace esperar y en escaso tiempo comienza a verse una gran cantidad de cambios internos en los procesos y organización de las empresas. Todo se va a alterar y comienzan a envolverse en una gran red interna de comunicaciones, donde todo los procesos que tenían demoras, van a fluir fácilmente por la rapidez e inmediatez que conlleva toda las nuevas tecnologías dentro de las empresas. Y qué decir del almacenamiento de la información que se empieza a trabajar. Sin dar espera las bases de datos con toda la información del empleado, usuario, cliente, proveedor, etc., se convierten en herramienta fundamental para las empresas y/o grandes compañías. Todo queda registrado en forma organizada a la espera de ser utilizado. Elementos vitales dentro de la llamada Empresa-Red, que con las NTI va a crecer tanto a nivel interno como también hacia el exterior.
Aunado a todo este cambio organizacional, se va a comenzar la fase de las Telecomunicaciones, “navegando” a través de “autopistas virtuales”, con canales en fibra de vidrio o satélites modernos de comunicaciones, en una gran red mundial donde van a confluir igualmente la información en conexión con computadores, teléfonos y señales de televisión.
Pero todo lo que vivimos de revolucionario en esta sociedad postindustrial, no sería tal, si no fuera por los grandes capitales de países que han invertido en investigación (USA, U.E. y Japón), lógicamente interesados en sacar provecho económico de las necesidades creadas a través de las NTI. Grandes ciudades como Silicon Valley en Estados Unidos, emporio de industrias culturales, refugio de importantes empresas de sistemas dedicadas a la investigación y consecución de nuevas tecnología de información, van a llevar “una función social a los mercados consumistas” mundiales, pero también van a ampliar aún más la brecha existente entre el desarrollo y el subdesarrollo del eje norte-sur.
Otro análisis en la sociedad de la información, nos toca más de cerca. A nivel personal, ya no es necesario andar con dinero por los riesgos que conlleva. El dinero plástico es una constante que se generalizó y que revolucionó la banca comercial y financiera. Toda una infraestructura con innovaciones tecnológicas, que día a día mejoran acordes con las necesidades o dificultades que se tienen.
Y esto no se detiene. Es más, nos volvimos dependientes de la tecnología. Si en principio la microelectrónica llegó a automatizar las grandes fábricas y las oficinas, la nanotecnología, que nos envuelve actualmente, traerá NTIC más reducidas, funcionales, de gran calidad y mayor potencial de almacenamiento, generando mejores beneficios a quien las utilice. Es fundamental, analizar cómo se han descentralizado muchas actividades que antaño no se podían hacer, gracias a las NTI. Dos ejemplos dentro de muchos. La realización de videoconferencias entre ciudades y países, independientemente del área geográfica donde se encuentren. Un gran avance, que a raíz de los temores por viajar en avión, por lo acontecido el 11S, cambió sustancialmente las comunicaciones a distancia. Los usos se multiplicaron y hoy fácilmente esta tecnología de punta no permite apreciar en nuestro país en tiempo real, las declaraciones de extraditados criminales desde remotas cárceles norteamericanas. Y qué decir de las NTI en la medicina. Las cirugías robotizadas son un hecho, donde un cirujano puede realizar su labor con precisión y calidad, allende las distancias.
Y es aquí, cuando se analiza y se ve en lontananza como las NTI han afianzado y colaborado con el desarrollo del sistema capitalista, en un mundo donde la globalización romperá todas las fronteras, conformando una unidad de naciones en busca de logros en conjunto. Y quién no quiere ingresar en este club de la globalización? Todos queremos estar allí, por lo que desde cualquier instancia en que estemos, no podemos darle la espalda a las Nuevas Tecnologías de la Información, pues son factores claves para el desarrollo de cualquier nación.
Por último, viendo otro enfoque analítico y muy serio de lo que han sido las NTI en su llegada a las empresas, cabría preguntarse, qué tanto están dispuestas las empresas a invertir en NTI y qué tan productiva puede resultar para la misma? En un estudio realizado hace varios años y publicado en la revista Harvard Business Review, se concluye lo siguiente: “El éxito de las inversiones en TI depende de las características de cada sector y de las prácticas de cada empresa. Este hecho explica en gran medida la escasa relación entre el gasto en TI y la productividad que hemos visto en los últimos años. Para que la TI cumpla su promesa, usuarios y vendedores deben utilizarla cuidadosamente, adaptándola a sectores y a empresas individuales y fusionándola con innovaciones en otros productos y procesos. La TI no es una receta mágica, pero si se la dirige al lugar correcto, puede ser una excelente arma competitiva”.
Gabriel Alfonso Arévalo C. - Octubre 1 de 2008
miércoles, 1 de octubre de 2008
INTERNET ENTRA EN SU TERCERA FASE
Los vehículos, las viviendas y la ropa tendrán un chip microscópico que los conectará, según destaca un informe publicado en días pasados por la Comisaría Europea de la Sociedad de la Información.
El estudio alerta a los países de dicho continente sobre la imperiosa necesidad de que Europa se haga al frente de los desarrollos e innovaciones que sobre Internet se comenzarán a ver en los próximos años. Tal escenario, conocido como Internet 3.0, hace referencia a redes independientes que conectarán prácticamente a toda actividad humana, sin importar aparatos o funciones. Las comunicaciones, el transporte, el comercio, el entretenimiento, el estudio y las demás actividades se desarrollarán únicamente dentro de Internet.
Según la comisaria Viviane Reding, "la Internet del futuro cambiará drásticamente a la sociedad. Será el 'Internet de los objetos', en el que interactuarán automáticamente aparatos, equipos y vehículos. Es necesario que Europa esté a la vanguardia de estos avances", señaló. En el documento, dicha Comisaría señala al año 2015 como el que dará inicio a tales cambios.
"En la web 3.0 se harán negocios, se construirá el conocimiento de la sociedad, en cualquier momento o en cualquier lugar, sin discontinuidad, mediante redes rápidas fiables y seguras", señala. Reding señala en su documento que debe "asegurarse que la web 3.0 se haga y se use en Europa. No debemos limitar con leyes el desarrollo tecnológico. Hay que invertir en una mejor banda ancha para nuestros pueblos", finaliza.
Etapas de Internet
Los expertos señalan tres etapas de evolución:
-Internet 1.0. fue la etapa de nacimiento, en la que los usuarios sólo accedían a información y servicios básicos. Había muchas limitaciones técnicas de tráfico de datos.
-Internet 2.0. Es la etapa que vivimos en la actualidad. Funciones como el video, la música y las aplicaciones en línea son la característica. Los usuarios se vuelven interactivos y comienzan a 'subir' y a compartir sus propios contenidos en la red.
- Internet 3.0. Además de lo anterior, la conectividad no tiene límites, no solo a través de PC sino de cualquier aparato, vehículo, vivienda, ropa, provistos de chips microscópicos.
En el caso de la ropa, estos dispositivos le avisarán al usuario sobre su frecuencia cardíaca o le enviarán una señal a su Ipod o celular para avisarle dónde queda la tienda más cercana para tomarse una gaseosa.
El Tiempo. Enter 2.0 Octubre 1 de 2008
domingo, 28 de septiembre de 2008
LA CIENCIA Y LA TECNOLOGIA EN COLOMBIA
Las cifras de inversión en ciencia y tecnología (C&T) señalan cómo está Colombia en este tema. La inversión en C&T en el mundo en el 2007 fue de 1,124 billones de dólares. Estados Unidos sigue siendo el país que más inversión realiza, con 353.000 millones de dólares, seguido de la China con 145.000 millones. India, Corea del Sur y Japón no se quedan atrás ya que invierten 42.000, 38.000 y 44.000 millones de dólares, respectivamente.
En nuestro país no se ha podido entender la importancia de invertir en C&T. A diferencia de los países mencionados, que sí la valoran, con una asignación de entre el 2 y el 3 por ciento del PIB, en Latinoamérica el promedio es del 0,6 por ciento, y en Colombia, del 0,5, por debajo del promedio. La excepción son Brasil, que invierte 1,4 por ciento, y Chile, 1 por ciento.
No es fácil entender cómo Corea del Sur, siendo en los años 70 más pobre y menos 'desarrollado' que Colombia, hoy nos lleve años luz de ventaja. La razón fue que los coreanos sí comprendieron que para salir de la pobreza de los 60, con un analfabetismo del 29 por ciento, un desempleo del 22 y un ingreso per cápita de 87 dólares, debían invertirle a la ciencia y a la tecnología. Treinta y cinco años después, Corea del Sur salió de su pobreza al bajar el analfabetismo al 2, sin tener desempleo (0 por ciento) y con un ingreso per cápita de 20.000 dólares. Actualmente es un país líder en el sector automotor, en electrónica y construcción de barcos y es el cuarto productor mundial de patentes al registrar 45.000 en el 2004, mientras en ese mismo período Colombia solo registró 77.
Para crear conciencia sobre la importancia de la C&T en el país se realizan diferentes actividades, como la Convención Científica Nacional, un encuentro que cada dos años realiza la Asociación Colombiana para el Avance de la Ciencia -Acac-, una entidad privada sin ánimo de lucro que viene luchando hace 38 años para que el país adopte la inversión en ciencia y tecnología como algo estratégico.
La Convención Científica se realiza cada año en un lugar distinto. El propósito de descentralizarla es el de que se incentiven la investigación, la innovación y el desarrollo en las regiones. La XVII edición se realizará del 24 al 26 de septiembre en Neiva, con el apoyo de la Gobernación del Huila y Colciencias. Hay que respaldar eventos como este.
Con los avances de la tecnología, llegó el momento de que Colombia le dé a este tema la importancia que merece. No es sino ver cómo una política de Estado, que acoja la C&T como factor estratégico de desarrollo, impacta en forma positiva a otros países. Ahora le llegó el momento al nuestro.
El Tiempo. Guillermo Santos Calderón. Septiembre 29 de 2008
En nuestro país no se ha podido entender la importancia de invertir en C&T. A diferencia de los países mencionados, que sí la valoran, con una asignación de entre el 2 y el 3 por ciento del PIB, en Latinoamérica el promedio es del 0,6 por ciento, y en Colombia, del 0,5, por debajo del promedio. La excepción son Brasil, que invierte 1,4 por ciento, y Chile, 1 por ciento.
No es fácil entender cómo Corea del Sur, siendo en los años 70 más pobre y menos 'desarrollado' que Colombia, hoy nos lleve años luz de ventaja. La razón fue que los coreanos sí comprendieron que para salir de la pobreza de los 60, con un analfabetismo del 29 por ciento, un desempleo del 22 y un ingreso per cápita de 87 dólares, debían invertirle a la ciencia y a la tecnología. Treinta y cinco años después, Corea del Sur salió de su pobreza al bajar el analfabetismo al 2, sin tener desempleo (0 por ciento) y con un ingreso per cápita de 20.000 dólares. Actualmente es un país líder en el sector automotor, en electrónica y construcción de barcos y es el cuarto productor mundial de patentes al registrar 45.000 en el 2004, mientras en ese mismo período Colombia solo registró 77.
Para crear conciencia sobre la importancia de la C&T en el país se realizan diferentes actividades, como la Convención Científica Nacional, un encuentro que cada dos años realiza la Asociación Colombiana para el Avance de la Ciencia -Acac-, una entidad privada sin ánimo de lucro que viene luchando hace 38 años para que el país adopte la inversión en ciencia y tecnología como algo estratégico.
La Convención Científica se realiza cada año en un lugar distinto. El propósito de descentralizarla es el de que se incentiven la investigación, la innovación y el desarrollo en las regiones. La XVII edición se realizará del 24 al 26 de septiembre en Neiva, con el apoyo de la Gobernación del Huila y Colciencias. Hay que respaldar eventos como este.
Con los avances de la tecnología, llegó el momento de que Colombia le dé a este tema la importancia que merece. No es sino ver cómo una política de Estado, que acoja la C&T como factor estratégico de desarrollo, impacta en forma positiva a otros países. Ahora le llegó el momento al nuestro.
El Tiempo. Guillermo Santos Calderón. Septiembre 29 de 2008
LA TERCERA REVOLUCIÓN INDUSTRIAL
En los aproximadamente 50 años que llevamos de la llamada Tercera Revolución Industrial, se han dado los mayores avances a nivel tecnológico en información y comunicaciones que el mundo haya visto. Todos enmarcados dentro de la dinámica y la inmediatez que los caracteriza. La comparación en cuanto al desarrollo en tecnología a través de la historia de la humanidad que hace Alfonso Gago, catedrático de la Universidad de Málaga, refiriendo escasos 14 segundos dentro de todo un mes, donde sólo estaríamos hablando de tecnología de la información es muy diciente. Y más si partimos después de la II Guerra Mundial a contar los avances tecnológicos en cuanto a información y comunicaciones que se hicieron y que han hecho posible lo que hoy día estamos viviendo como una verdadera revolución.
El movimiento telúrico que se dio en todos los ámbitos donde iba a incursionar la tecnología de la información fue de grandes proporciones. Un cambio, en algunos casos renuentes por su "posible complejidad", que hizo que en menos tiempo de lo imaginado, llegará a tocar todos los sectores de la sociedad tanto a nivel nacional como internacional. Cambios para bien en "la organización, en la concepción de la empresa y en la utilización de los recursos humanos" era lo que se comentaba, dada la facilidad, rapidez e inmediatez de todos los sistemas y procesos novedosos. El sector que debía comandar todo este proceso de cambios era el educativo, de allí tendrían que salir los líderes que comandarían esta revolución. La inversión en tecnología de la gran mayoría de instituciones de educación superior se empezó a gestionar, como también el cambio de infraestructura que iba a albergar a la multitud de estudiantes ávidos de conocimiento en estas nuevas áreas tecnológicas. Y en menos que nada, se hizo el cambio. Hoy día seguimos viviendo esta Tercera Revolución Industrial, con mayor entusiasmo y dinamismo. Sin embargo, hay situaciones que se deben tener en cuenta para hacerla llevadera en forma óptima, ya que a nuestro país le hace falta todavía mucho camino.
A la fecha solamente hay aproximadamente dos millones de suscriptores abonados a internet, lógicamente en ascenso, una cifra que asombra por lo escasa, en relación con nuestra población. El trabajo que se está gestando en infraestructura por parte del estado para llegar a todo el país con las bondades de las nuevas tecnologías de información en comunicaciones es arduo y conlleva tiempo. Instalación de más cable submarino, como lo vimos a mediados del primer semestre del presente año y el futuro envío en 2012 de dos satélites al espacio uno de comunicaciones y otro de observación, son razones para no dejar pasar más tiempo y hacer inversión en tecnología y educación.
Hoy países emergentes como Chile, nos dan ejemplo de esto que ellos vislumbraron y que logran mostrar con orgullo, situándolo como un estado que está próximo a dejar la banca del subdesarrollo. El Plan Decenal de Educación 2006 - 2016, propuesto por el estado colombiano, tiene como objetivo orientar el sentido de la educación para avanzar en las transformaciones de la misma. Dentro de los 10 retos que tiene planteado en lo referente a los fines y calidad de la educación en el siglo XXI está el "garantizar el acceso, uso y apropiación crítica de las TIC, como herramientas para el aprendizaje, el avance científico, tecnológico y cultural, que permitan el desarrollo humano y la participación activa en la sociedad del conocimiento". Así mismo, dentro del ítem "Renovación pedagógica desde y uso de las TIC en educación" y "Ciencia y tecnología integradas a la educación" se encuentran enfoques interesantes que de aplicarse en su totalidad van a fortalecer el manejo de la formación de los estudiantes con el uso de las NTIC.
En contraste con lo anterior, aterran titulares de prensa que manifiestan que sólo un 20% de los docentes universitarios utilizan NTIC en sus asignaturas. Pero más preocupante conocer el por qué de esta situación, ya que la investigación aduce que "algunos no las introducen por temor a que los estudiantes, que tienen facilidades para las nuevas tecnologías, los superen." Y todo ello, dentro de la Tercera Revolución Industrial.
GABRIEL ALFONSO ARÉVALO CAMELO - Septiembre de 2008
lunes, 22 de septiembre de 2008
2 SATELITES COLOMBIANOS EN ÓRBITA EN 2012
http://www.eltiempo.com/media/produccion/satelite/
De llevarse a cabo el proyecto, el país entraría a un privilegiado grupo que por años estuvo reservado para grandes potencias como E.U., Rusia y China: el 'club' de países propietarios de satélites en órbita.
Varios funcionarios se han reunido de manera discreta con representantes de agencias espaciales de países con esta tecnología, en busca de adquirir un satélite de observación y otro de comunicaciones.
Ya han hablado con agencias de Europa, E.U., China, Japón, Brasil, Francia, Israel y Argentina. El Gobierno proyecta abrir las licitaciones en el transcurso de los próximos nueve meses para la construcción y puesta en órbita de los satélites.
Los funcionarios que realizan estas gestiones hacen parte de la Comisión Colombiana del Espacio (CCE), presidida por el vicepresidente Francisco Santos.
Para comunicaciones
Iván Darío Gómez, secretario ejecutivo de la CCE, lidera el proceso para adquirir el satélite de observación, que tendría una vida útil de entre 5 y 10 años.
Él tiene presupuestado que a finales de diciembre se abra el proceso para adjudicar su construcción y lanzamiento. "Estamos dimensionando qué tipo de satélite requerimos", dice.
El satélite de observación tiene al menos 70 usos: "Sirve para hacer la cartografía, observar fenómenos meteorológicos, como los huracanes, y actuar en atención y prevención de desastres", cuenta Gómez.
Hoy en día, instituciones colombianas compran estas fotos satelitales por cerca de 7 mil millones de pesos al año.
Los de este tipo se ubican a una altura de entre 450 y 550 kilómetros de la tierra, le dan la vuelta al mundo por los polos o de manera paralela a la línea ecuatorial (Colombia escogerá laprimera opción) y tienen un costo que (incluyendo el lanzamiento y el seguro) oscila entre 100 y 150 millones de dólares, según Santos.
Aunque aún no están adquiridas las órbitas, que se deben pedir a la Unión Internacional de Telecomunicaciones, Gómez asegura que "los permisos no son complejos (...) Se hace la solicitud cuando se sepa qué satélite se va a usar".
Satélite para conectividad
El satélite de comunicaciones tiene otro propósito: transmitir voz y datos. La ministra de Comunicaciones, María del Rosario Guerra, a cargo de este proyecto, explica que "cerca del 60 por ciento del territorio tiene a los servicios satelitales como única opción de conectividad en banda ancha, por la ubicación geográfica".
Por ello, el Ministerio busca que el país se provea a sí mismo de estos servicios sin necesidad de acudir a operadores satelitales internacionales.
Añade que el propósito también es proveer telecomunicaciones a entidades del Estado, "como parte de los requerimientos del Ministerio de Defensa, de Transporte y del sector privado, que nos han pedido capacidad satelital (...) la idea es lanzarlo a finales del 2011".
Este satélite no gira alrededor del mundo, sino que se mantiene sobre el punto de la tierra donde es ubicado y se mueve al ritmo del planeta (es geoestacionario). Su costo puede variar entre los 150 y los 250 millones de dólares "dependiendo del tamaño del satélite".
Según la Ministra, ya se están evaluando alternativa y se han recibido "más de ocho propuestas" en un diálogo que se da "de gobierno a gobierno".
Los estudios técnicos y financieros, que indicarán el tipo de satélite que necesita y puede costear el país, serán entregados a mediados de octubre y sometidos a consideración del Consejo de Ministros a finales del mismo mes. En el primer semestre del próximo año abrirían la licitación.
CAN negocia su posición orbital.
La Comunidad Andina de Naciones (CAN) tiene el afán de sacarle provecho a la posición orbital 67 grados oeste sobre la cual perdería derechos de explotación si no la usa antes de julio del 2010. Se pensó en un satélite de comunicaciones andino, que alcanzaron a llamar 'Simón Bolívar' y que era de propiedad de empresas privadas de los países de la CAN. El proyecto fracasó. Ahora negocia con la Sociedad Europea de Satélites para otorgarle, en concesión, dicha posición a cambio de capacidad satelital gratuita para la CAN. Colombia, por su parte, estudia para su proyecto 4 opciones espaciales, en asesoría con la Unión Internacional de Telecomunicaciones.
'En el futuro desarrollaríamos tecnología propia': Vicepresidente
El vicepresidente Francisco Santos, quien preside la Comisión Colombiana del Espacio (CCE), asegura que, dependiendo del satélite que adquieran, podrían detectar campamentos guerrilleros y vigilar la frontera.
EL TIEMPO: Tener satélites suena a una cosa del primer mundo. ¿Por qué Colombia necesita dos?
FRANCISCO SANTOS: Necesitaría de pronto más. El satélite de observación de la tierra, por ejemplo, sirve para propósitos militares, para agricultura, para medir cultivos ilícitos. El de comunicaciones está más próximo y creo que si nos apuramos alcanza a ser lanzado antes del 2010. Tenemos que estar en ese club, que es muy selecto.
¿Tendremos mediciones propias de cultivos ilícitos?
Es posible dependiendo del satélite. Obviamente en términos de cultivos ilícitos hay un tema importante y es tener un validador externo; eso le genera credibilidad.
¿Se podrán ver campamentos de guerrilleros y movimientos en la frontera?
En algunos casos sí, aunque eso tiene un componente militar importante que es la compra de los famosos dronin, que son aviones manejados desde tierra, que no necesitan pilotos, y que llevan equipos sensibles de aerofotografía. Pero un satélite también nos serviría para eso.
¿Colombia podrá aprender de la construcción de satélites?
El grupo que está trabajando el tema no solo analiza el uso, sino también qué tipo de tecnología podemos desarrollar en Colombia. Ya hay gente que puede empezar a pensar que en unos años desarrollemos nuestra propia tecnología satelital.
¿Esto tiene reversa?
En la CCE estamos estudiando con tanta seriedad el tema que eso coge su propio vuelo. Ya solo falta una adición presupuestal que se puede tomar partiendo del ahorro que obtenemos de lo que pagamos todas las instituciones en la compra de fotos satelitales.
ANDRÉS GÓMEZ OSORIO. ElTiempo Septiembre 21 de 2008
Uno de ellos, de observación, permitiría medición propia de cultivos ilícitos. Cuestan entre 250 y 400 millones de dólares.
De llevarse a cabo el proyecto, el país entraría a un privilegiado grupo que por años estuvo reservado para grandes potencias como E.U., Rusia y China: el 'club' de países propietarios de satélites en órbita.
Varios funcionarios se han reunido de manera discreta con representantes de agencias espaciales de países con esta tecnología, en busca de adquirir un satélite de observación y otro de comunicaciones.
Ya han hablado con agencias de Europa, E.U., China, Japón, Brasil, Francia, Israel y Argentina. El Gobierno proyecta abrir las licitaciones en el transcurso de los próximos nueve meses para la construcción y puesta en órbita de los satélites.
Los funcionarios que realizan estas gestiones hacen parte de la Comisión Colombiana del Espacio (CCE), presidida por el vicepresidente Francisco Santos.
Para comunicaciones
Iván Darío Gómez, secretario ejecutivo de la CCE, lidera el proceso para adquirir el satélite de observación, que tendría una vida útil de entre 5 y 10 años.
Él tiene presupuestado que a finales de diciembre se abra el proceso para adjudicar su construcción y lanzamiento. "Estamos dimensionando qué tipo de satélite requerimos", dice.
El satélite de observación tiene al menos 70 usos: "Sirve para hacer la cartografía, observar fenómenos meteorológicos, como los huracanes, y actuar en atención y prevención de desastres", cuenta Gómez.
Hoy en día, instituciones colombianas compran estas fotos satelitales por cerca de 7 mil millones de pesos al año.
Los de este tipo se ubican a una altura de entre 450 y 550 kilómetros de la tierra, le dan la vuelta al mundo por los polos o de manera paralela a la línea ecuatorial (Colombia escogerá laprimera opción) y tienen un costo que (incluyendo el lanzamiento y el seguro) oscila entre 100 y 150 millones de dólares, según Santos.
Aunque aún no están adquiridas las órbitas, que se deben pedir a la Unión Internacional de Telecomunicaciones, Gómez asegura que "los permisos no son complejos (...) Se hace la solicitud cuando se sepa qué satélite se va a usar".
Satélite para conectividad
El satélite de comunicaciones tiene otro propósito: transmitir voz y datos. La ministra de Comunicaciones, María del Rosario Guerra, a cargo de este proyecto, explica que "cerca del 60 por ciento del territorio tiene a los servicios satelitales como única opción de conectividad en banda ancha, por la ubicación geográfica".
Por ello, el Ministerio busca que el país se provea a sí mismo de estos servicios sin necesidad de acudir a operadores satelitales internacionales.
Añade que el propósito también es proveer telecomunicaciones a entidades del Estado, "como parte de los requerimientos del Ministerio de Defensa, de Transporte y del sector privado, que nos han pedido capacidad satelital (...) la idea es lanzarlo a finales del 2011".
Este satélite no gira alrededor del mundo, sino que se mantiene sobre el punto de la tierra donde es ubicado y se mueve al ritmo del planeta (es geoestacionario). Su costo puede variar entre los 150 y los 250 millones de dólares "dependiendo del tamaño del satélite".
Según la Ministra, ya se están evaluando alternativa y se han recibido "más de ocho propuestas" en un diálogo que se da "de gobierno a gobierno".
Los estudios técnicos y financieros, que indicarán el tipo de satélite que necesita y puede costear el país, serán entregados a mediados de octubre y sometidos a consideración del Consejo de Ministros a finales del mismo mes. En el primer semestre del próximo año abrirían la licitación.
CAN negocia su posición orbital.
La Comunidad Andina de Naciones (CAN) tiene el afán de sacarle provecho a la posición orbital 67 grados oeste sobre la cual perdería derechos de explotación si no la usa antes de julio del 2010. Se pensó en un satélite de comunicaciones andino, que alcanzaron a llamar 'Simón Bolívar' y que era de propiedad de empresas privadas de los países de la CAN. El proyecto fracasó. Ahora negocia con la Sociedad Europea de Satélites para otorgarle, en concesión, dicha posición a cambio de capacidad satelital gratuita para la CAN. Colombia, por su parte, estudia para su proyecto 4 opciones espaciales, en asesoría con la Unión Internacional de Telecomunicaciones.
'En el futuro desarrollaríamos tecnología propia': Vicepresidente
El vicepresidente Francisco Santos, quien preside la Comisión Colombiana del Espacio (CCE), asegura que, dependiendo del satélite que adquieran, podrían detectar campamentos guerrilleros y vigilar la frontera.
EL TIEMPO: Tener satélites suena a una cosa del primer mundo. ¿Por qué Colombia necesita dos?
FRANCISCO SANTOS: Necesitaría de pronto más. El satélite de observación de la tierra, por ejemplo, sirve para propósitos militares, para agricultura, para medir cultivos ilícitos. El de comunicaciones está más próximo y creo que si nos apuramos alcanza a ser lanzado antes del 2010. Tenemos que estar en ese club, que es muy selecto.
¿Tendremos mediciones propias de cultivos ilícitos?
Es posible dependiendo del satélite. Obviamente en términos de cultivos ilícitos hay un tema importante y es tener un validador externo; eso le genera credibilidad.
¿Se podrán ver campamentos de guerrilleros y movimientos en la frontera?
En algunos casos sí, aunque eso tiene un componente militar importante que es la compra de los famosos dronin, que son aviones manejados desde tierra, que no necesitan pilotos, y que llevan equipos sensibles de aerofotografía. Pero un satélite también nos serviría para eso.
¿Colombia podrá aprender de la construcción de satélites?
El grupo que está trabajando el tema no solo analiza el uso, sino también qué tipo de tecnología podemos desarrollar en Colombia. Ya hay gente que puede empezar a pensar que en unos años desarrollemos nuestra propia tecnología satelital.
¿Esto tiene reversa?
En la CCE estamos estudiando con tanta seriedad el tema que eso coge su propio vuelo. Ya solo falta una adición presupuestal que se puede tomar partiendo del ahorro que obtenemos de lo que pagamos todas las instituciones en la compra de fotos satelitales.
ANDRÉS GÓMEZ OSORIO. ElTiempo Septiembre 21 de 2008
jueves, 18 de septiembre de 2008
RESPONSABILIDAD DE LOS BLOGS
El pasado 11 de septiembre desapareció un grabado del maestro Goya de la Fundación Gilberto Alzate Avendaño de Bogotá. Mientras las autoridades realizaban sus primeras pesquisas, se hizo público un comunicado firmado por el Movimiento 11-S, que, en términos similares a los usados por la guerrilla, se adjudicaba el robo. Cuatro días después, un profesor universitario confesó ser el autor y calificó el texto como una 'parodia crítica'. Este hecho prende las alarmas sobre la impunidad que fomentan los blogs y sobre el cuidado que deben tener portales de Internet a la hora de publicar información.
La 'parodia' desvió la investigación del robo, amparada en el silencio del profesor. La Fiscalía lo llamó a rendir testimonio por atribuirse un robo y manipular información. Poco valor tendrá la intención 'paródica' con supuestos fines artísticos ante la nefasta posibilidad de una pérdida definitiva del grabado del maestro español.
Arguye el profesor que nunca ocultó su identidad, pues al blog llegó el texto desde su correo personal y fueron los medios quienes asumieron la veracidad del mismo. Su nombre, sin embargo, no aparece en el documento publicado en este blog, tan medio masivo de comunicación como este diario. El hecho de estar en Internet no le quita la mínima responsabilidad social por su contenido e intención. No hay patente de corso para la generación de información malintencionada, sesgada o violenta en la red.
El flujo anárquico de información en los millones de sitios de Internet es tanto fuente de un acceso más democrático como una peligrosa masificación de mentiras, calumnias, mensajes de odio y, como en el caso del comunicado, bromas orientadas a generar confusión. Arroparse bajo el manto del "arte" no le quita gravedad al asunto.
Por mucho menos -bromear con que llevaba una bomba en su equipaje-, a una mujer la bajaron de un avión y un cibernauta de E.U. terminó en la carcel por difundir la falsa noticia de que miles de compotas Gerber estaban envenenadas. La noticia de la 'parodia' del profesor fue todo, menos divertida.
Las autoridades decidirán si el caso del profesor amerita una amonestación. Por lo pronto, el repudio público es evidente. Esperemos que se recupere el grabado y que su título, Tristes presentimientos de lo que ha de acontecer, no se convierta en una vergonzosa realidad, avalada por un portal de Internet.
editorial@eltiempo.com.co Septiembre 18 de 2008
lunes, 15 de septiembre de 2008
INTERNET EN CIFRAS EN COLOMBIA
Los abonados a Internet en Colombia se incrementaron en un 28,5% en el primer semestre del año y sumaron 1.774.600 de suscriptores, según un informe semestral divulgado hoy por la Comisión de Regulación de Telecomunicaciones (CRT).
El organismo regulador precisó que en el país se registraron 393.127 abonados más de los contabilizados en diciembre de 2007 y aclaró que la cifra de usuarios de la red informática es mayor, ya que al hablar de suscriptores se alude a contratos para el servicio.
La CRT indicó también que en el segundo trimestre del año aumentó en 1,8 millones la cifra de usuarios de Internet por medio de dispositivos móviles como teléfonos celulares, en comparación con el primer trimestre pasado, con lo que el total llegó a 5,3 millones.
Según el informe, un 40,6% ciento de los suscriptores de Internet en Colombia vive en Bogotá, el 10,9 por ciento en Medellín y el 6,23 por ciento en Cali.
El organismo regulador precisó que en el país se registraron 393.127 abonados más de los contabilizados en diciembre de 2007 y aclaró que la cifra de usuarios de la red informática es mayor, ya que al hablar de suscriptores se alude a contratos para el servicio.
La CRT indicó también que en el segundo trimestre del año aumentó en 1,8 millones la cifra de usuarios de Internet por medio de dispositivos móviles como teléfonos celulares, en comparación con el primer trimestre pasado, con lo que el total llegó a 5,3 millones.
Según el informe, un 40,6% ciento de los suscriptores de Internet en Colombia vive en Bogotá, el 10,9 por ciento en Medellín y el 6,23 por ciento en Cali.
jueves, 28 de agosto de 2008
ESTÁNDAR EUROPEO DVB-T, PARA T.V. DIGITAL EN COLOMBIA
La medida impactará el 93% de hogares del país. La decisión no sólo implica inversiones para la adopción del sistema ganador y para las empresas de TV, sino que tocará las finanzas de las familias.
Según se conoció, las primeras emisiones con la nueva señal digital se podrán disfrutar a partir del segundo trimestre del próximo año, cuando se prevé que los canales públicos y privados de televisión hayan avanzado en la construcción de una red con la nueva tecnología en las principales ciudades del país. Hay que recordar que una vez sea puesta en operación la señal digital se iniciará un período de transición -estimado en 10 años- en el que serán emitidas las imágenes tanto en el estándar analógico actual como en el nuevo. Al concluir este periodo se apagará la señal analógica. Para hacer esta migración tecnológica, los colombianos podrán comprar un decodificador que utilizarán junto a su televisor tradicional (analógico) o adquirir un televisor con el estándar incluido.
Costo para usuarios
Sin embargo, esto no implica que el cambio y los gastos nuevos en que se incurra para recibir la TV digital se tengan que asumir ya, pues el Gobierno tiene planeado un período de transición a diez años. De acuerdo con los cálculos preliminares realizados por la CNTV y los expertos del sector vinculados al proceso, la inversión mínima que tendrá que realizar el país para dar este paso tecnológico se encuentra entre los 100 y 150 millones de dólares (190.000 a 284.000 millones de pesos). De hecho, esta cifra explica la razón por la cual el proceso de selección de un estándar estuvo precedido de siete viajes internacionales de los miembros de la CNTV -para conocer de primer mano las diferentes tecnologías de TV digital-, así como al desarrollo de 13 foros sobre el tema en 11 ciudades del país y decenas de reuniones en Colombia con los representantes de cada uno de los cuatro estándares.
La ministra de Comunicaciones, María del Rosario Guerra, insistió ayer en la Comisión Sexta de la Cámara de Representantes que "esta es una decisión madura, un tema debatido y estudiado desde hace cerca de dos años, tiempo en el cual se hicieron pruebas técnicas y se desarrolló un proceso serio y participativo que tiene como única finalidad adoptar el estándar que más le convenga al país y que se ajuste a las necesidades y condiciones de los colombianos". Pero más allá de lo discutido que ha sido el tema y los beneficios que traerá al país, es claro que detrás de todo esto hay un negocio y son muchos los interesados en que el Gobierno tome una decisión hoy para emprender una nueva batalla con el fin de ganar los contratos que harán realidad la TV digital en los próximos años.
Javier León, gerente general de Motorola en Colombia, augura una avalancha de inversiones promovida, principalmente, por el propio Gobierno que deberá ser el primero en desembolsar los recursos para construir la red que emitirá la nueva señal digital. Al respecto, Julián Cardona, presidente de la Asociación Colombiana de Ingenieros (Aciem), no duda en señalar que el desarrollo de esta red se llevará una importante tajada de los recursos que se han estimado para el proyecto y allí jugarán un papel clave proveedores de tecnología como Harris, Zenith, LG, Toshiba, NEC y Thomson. Eso por no hablar de las inversiones necesarias para llevar la TV digital al celular como Nokia-Siemens, Ericsson o Alcatel-Lucent.El ex viceministro de Comunicaciones, Germán González, asegura que el Gobierno debe tomar en cuenta en sus presupuestos si va o no a subsidiar los decodificadores. Según se conoció, los decodificadores básicos con el estándar japonés (nipo-brasileño) tienen un valor de 120 dólares (223.000 pesos), mientras que el europeo vale 26 euros (72.000 pesos) y el americano 30 dólares (56.000 pesos).
Como si lo anterior fuera poco, hay que tener en cuenta las ventas de televisores. De acuerdo con una encuesta realizada por la CNTV, el 28 por ciento de los colombianos está dispuesto a cambiar de televisor por la llegada de la TV digital. El nuevo sistema también genera una expectativa en el escenario de los contenidos. Javier León de Motorola cree que en paralelo con la puesta en marcha del proceso de transición hacia la TV digital se debe trabajar en el desarrollo de plataformas de tipo interactivo que exploten las capacidades de la nueva red. Considera que la digitalización de la señal optimizará el espectro radioeléctrico y permitirá la llegada no solo de un tercer o un cuarto canal, sino de muchos más que podrán atender necesidades de los colombianos en frentes como la educación. El Tiempo. Agosto 28 de 2008
La TV del futuro
La sorpresiva decisión de la Comisión Nacional de Televisión (CNTV) de adoptar el estándar europeo para la televisión digital marca el inicio de una nueva etapa de este servicio público en el país. Esta tecnología es un salto hacia adelante en materia de calidad y definición de la señal, de servicios interactivos y en línea y de una mayor oferta televisiva. Luego de dos años de juicioso estudio, 13 foros a lo largo y ancho del país y una intensa presión diplomática, los comisionados optaron por el formato que, a juicio de los expertos, se ajusta de mejor manera a las realidades colombianas.
La tecnología europea ofrece un mejor desempeño de cobertura ante la difícil topografía nacional. Asimismo, cuenta con atractivas potencialidades en interactividad, movilidad, un formato libre de patentes y está presente en más de 120 países del mundo. Este cubrimiento global amplía el abanico de proveedores técnicos y abarata los precios de los decodificadores que los usuarios tendrán que adquirir.
Escoger el estándar europeo es tan solo el primer paso de esta transformación tecnológica. En los próximos años, la CNTV, el Ministerio de Comunicaciones, los canales públicos y privados y otros actores de la industria deberán implementar una serie de iniciativas técnicas, económicas e institucionales para que la totalidad de los hogares colombianos pueda disfrutar de los beneficios del nuevo formato.
En primer lugar, están unos 200 millones de dólares que los canales tendrán que invertir en la nueva infraestructura de transmisión. Sin embargo, la televisión digital constituye una oportunidad para reinventar su modelo de negocios con los servicios interactivos, de compra de productos y de múltiples señales en la misma frecuencia. La CNTV definió la plataforma y de los canales depende en gran parte que los televidentes puedan sacarle el mayor jugo. Un comité liderado por el Ministerio de Comunicaciones estará a cargo de resolver esos retos tecnológicos iniciales como el modelo de la red, la administración del espectro, entre otros. Una sola infraestructura, por ejemplo, es una opción que vale la pena estudiar a profundidad. En dos años, la CNTV espera que un cuarto de la población nacional acceda a las primeras señales de la TV digital.
De manera simultánea a la definición del cronograma técnico, la Comisión y el Gobierno tienen la responsabilidad de explicarles a los colombianos los alcances de esta decisión y la manera como afectará su disfrute del servicio. Aunque en 10 años se dará el "apagón analógico", que desactiva del todo las señales actuales, oportunas y sencillas dosis de información deben acompañar las distintas etapas de esta transición.
Dos aspectos que no pueden olvidarse en este proceso son el costo de los decodificadores y la cobertura para aquellas áreas del país que hoy no tienen una señal decente. Hay que evitar a toda costa que este salto digital amplíe más la brecha tecnológica que muchos hogares padecen. A los operadores de televisión por suscripción -que cubren el 74 por ciento de los televidentes- también les corresponde garantizar que sus usuarios accedan a los beneficios del formato con comodidad y sin grandes inconvenientes.
La CNTV tomó una decisión ajustada a lo técnico y le apostó a un modelo tecnológico más interactivo y móvil. De los cambios en infraestructura, contenidos y hasta en los hábitos de los televidentes que generará estos 10 años de transición dependerá el éxito de la televisión del futuro.
lunes, 18 de agosto de 2008
TEMOR POR EL USO DE NUEVAS TECNOLOGIAS EN CLASE

La investigación, hecha entre 332 maestros universitarios, reveló que al menos el 80 por ciento no aprovecha las nuevas tecnologías en sus clases. Según el estudio, que sirvió de base para la creación de la maestría en Informática Educativa, los maestros las usan y las conocen, pero no las integran como herramientas para mejorar el aprendizaje de sus estudiantes.
Se apoyan en el computador, pero solo para resolver asuntos como listas o para navegar en Internet. "Solo un 20 por ciento hace simulaciones o ejercicios que involucran de manera activa la participación del estudiante a través de las nuevas tecnologías. El resto se está quedando en el mero conocimiento y uso de las herramientas", explica Andrés Chiappe, director de la Maestría en Informática Educativa de la Universidad de La Sabana.
En el documento del Plan Decenal de Educación 2006-2016 hay metas concretas en cuanto al uso de las tecnologías de la información y la comunicación, que, a juzgar por el estudio, están muy lejanas. Por ejemplo, en el 2010, todas las instituciones educativas deberán adaptar su currículo de acuerdo con las tecnologías y el 80 por ciento de los maestros tendrán que incluirlas en sus aulas."Se necesitan procesos de formación de mucho más largo aliento.
Se debe ofrecer a los maestros programas que no solo los formen en el uso y conocimiento de herramientas sino que les permitan hacer investigación", asegura Chiappe. De acuerdo con la investigación, algunos no las introducen por temor a que los estudiantes, que tienen facilidades para las nuevas tecnologías, los superen.
El Tiempo. Agosto 17 de 2008
domingo, 17 de agosto de 2008
EL GENIO DE SUMER
Todos los caminos conducen a Roma, nos han dicho siempre. ¡Es mentira! Todos conducen a Sumer, la civilización que floreció a mediados del milenio IV a. C. en Mesopotamia, entre el Tigris y el Éufrates. Con los sumerios empieza la tecnología, la ciencia, el respeto por el otro, la civilización, la historia toda.
Los sumerios empezaron por el principio: inventaron la rueda hacia el 3.500 antes de Cristo y el mundo empezó a girar: la polea, los piñones, el reloj, el round point, el cine, el bolígrafo, la bicicleta y el modelo atómico son algunas de las consecuencias de esta invención. ¿Cuál habría sido la historia de la humanidad sin la rueda? Es impensable. Podría ser tan notable como el de las civilizaciones precolombinas, que conocieron el círculo geométrico mas no la rueda de cada día. O tan pobre como el de ciertas tribus de Nueva Guinea, que aún no la descubren, pero ya la aborrecen, justo al contrario de los pueblos celtas, que la adoraron mucho antes de usarla. (Recordemos aquí a los griegos, que adoraron la esfera y la fatalidad, y los católicos, que idolatran de soslayo el triángulo, símbolo de la Trinidad, eco herético del politeísmo).
Exactamente por la misma época apareció allí la escritura cuneiforme, unos signos que parecen pisadas de pájaro sobre unas tablillas de barro fresco que luego se ponían a secar al sol de Sumer (quizá por esto llamamos hoy “ladrillos” a los libros pesados y oscuros). Todos los himnos y las plegarias y las blasfemias y los poemas del mundo estaban ya, en potencia, en los garabatos sumerios.
Diecisiete siglos después, los jueces de Babilonia redactaron sobre una piedra negra de basalto de dos metros de altura el Código de Hammurabi, el primer intento conocido de poner por escrito normas sociales de convivencia, las leyes del respeto por el otro, el verdadero comienzo de la civilización.
En el mismo siglo del Código, el XVIII a. C., los matemáticos babilonios idearon un método de numeración posicional del cual se deriva nuestro sistema decimal, el de las unidades, las decenas y las centenas. (El cero es un invento indú; sin él, la aritmética nunca habría alcanzado la orilla de los números negativos y nuestra matemática valdría menos que un cero a la izquierda).
No contentos con esto, los babilonios, hijos de los sumerios, inventaron la astronomía con una precisión estelar. Las mediciones actuales de los eclipses lunares, demos por caso, comportan errores de hasta medio segundo de arco por año en la determinación del movimiento del Sol. El error promedio de los cálculos de Kidinnú, astrólogo de Babilonia, ¡era de siete décimas de segundo!
Allí, pues, en esa pequeña región de lo que hoy es Irak, se idearon o se pusieron a punto cinco ingenios cruciales de la humanidad: la rueda, la escritura, la matemática, el derecho y la astronomía. Y cada día, desde que Dios amanece, usamos los cinco: llevamos las cuentas y lo medimos todo con el sistema decimal, sus ruedas mueven nuestros carros y las máquinas, con su astronomía proyectamos calendarios, cálculos meteorológicos y trabajos agrícolas, y el derecho refrena nuestros peores instintos y le pone límites al atávico egoísmo de la especie. (Estas cosas me las enseñó un amigo que todos los días, al caer la tarde, se inclina hacia Oriente e intercala en el padre nuestro un versículo de gratitud a “nuestros hermanos de Sumer”).
Julio César Londoño. El Espectador. Opinión. Agosto de 2008
COLOMBIA, CUARTO EN TECNOLOGIA EN LATINOAMERICA
El incremento en el número de usuarios de Internet y el avance de iniciativas como Gobierno en Línea hicieron que Colombia superara por primera vez a Brasil y se ubicara muy cerca de los indicadores de México y Argentina en adopción de tecnología, según el índice de la Sociedad de la Información (ISI) 2008, un estudio elaborado por la firma consultora Everis y la Escuela de Negocios IESE-Cela de España.
El Estudio ISI selecciona a los cinco países más adelantados en adopción tecnológica en Latinoamérica y les asigna una calificación teniendo en cuenta además los indicadores económicos y sociales de cada uno (como crecimiento económico, nivel de desempleo e ingresos promedio por persona). En el informe del 2008, que publica las cifras registradas al cierre del tercer trimestre del año pasado, Colombia no solo se consolidó entre los cinco primeros en Latinoamérica, sino que su puntaje de 4,32 le permitió superar por primera vez a Brasil, que cerró este período con 4,24 puntos.
El estudio es liderado por Chile, que sobresale entre los demás países con un puntaje de 5,78; segundo está Argentina (4,79) y tercero México (4,61).
Según la empresa consultora, de seguir la proyección que se vio durante el 2007 es muy probable que Colombia supere a México en el transcurso de este año (Colombia viene subiendo, mientras México lleva varios trimestres a la baja).
De acuerdo con Germán Cutillas, consultor y representante de Everis en Colombia, el país avanzó especialmente en usuarios de Internet (18,2 por ciento de la población), en el parque de servidores (1,7 por cada 1.000 habitantes) y en el gasto en tecnologías de la información por persona (281 dólares por año). Además destacó que el país aumentó su penetración de computadores en un 36,2 por ciento (el crecimiento más importante de la región), con lo cual llegó a 6,8 equipos por cada 100 habitantes.
Cutillas recalcó que esa cifra es a cierre del tercer trimestre del 2007. "Es muy probable que en la actualidad este indicador esté por encima de 8 computadores por cada 100 habitantes, cifra cercana a la dada por el Ministerio de Comunicaciones recientemente", agregó.
Hay que aclarar que varios de estos indicadores están por debajo de los registrados por los demás países, pero como el promedio se saca teniendo en cuenta algunos indicadores sociales y económicos (como número de habitantes, tasa de desempleo y desempeño industrial) el índice de Colombia puede estar por encima de los otros.
En estos indicadores Colombia fue el país que mejores resultados obtuvo; entre los datos económicos y sociales que sobresalen están el crecimiento del 6,5 por ciento en el PIB total trimestral, mientras que el PIB por persona subió a 3.465 dólares anuales, señala el estudio.
La investigación destaca igualmente que Colombia es el país que tiene el crecimiento 'tecnológico' más estable, y que es muy probable que a mediados del 2008 el país se ubique como el de mayor crecimiento anual en toda la región.
Según la proyección realizada por Everis, al cierre del primer trimestre de este año el índice general de Colombia debe subir a 4,38 puntos, mientras que la penetración de Internet estaría en 21,1 por ciento.
En opinión de Cutilla, estos indicadores convierten a Colombia en el país más atractivo para la inversión extranjera en la región, "pues a muchas empresas les preocupa el tiempo que tardan en recuperar la inversión en naciones con alta competencia (como Chile y Argentina) o en mercados que no crecen a buen ritmo (como Brasil y México)".
Revista Enter Julio de 2008
MIL MILLONES DE PC EN EL MUNDO
La cifra se doblará en el año 2014, en buena medida por la creciente difusión de los PC en los mercados emergentes, dice la firma Gartner.
El número de computadores personales en uso en el mundo llegó a 1.000 millones, según estimativos de la firma de investigación de mercados Gartner. Esta empresa agregó que la cifra se doblará en el año 2014, en buena medida por la creciente difusión de los PC en los mercados emergentes.
El número de computadores personales en uso en el mundo llegó a 1.000 millones, según estimativos de la firma de investigación de mercados Gartner. Esta empresa agregó que la cifra se doblará en el año 2014, en buena medida por la creciente difusión de los PC en los mercados emergentes.
George Shiffler, director de investigaciones de Gartner, dijo en un comunicado que "los mercados desarrollados, como Estados Unidos, Europa occidental y Japón, representan actualmente el 58 por ciento del total de PC instalados en el mundo", pese a que esos países tienen el 15 por ciento de la población mundial.
Sin embargo, agregó Shiffler, el rápido desarrollo económico en los mercados emergentes está disminuyendo la brecha. "Nosotros esperamos que la penetración de los PC en los países emergentes se duplique de aquí al 2013", entre otros factores "por la explosiva expansión de la banda ancha y la conectividad inalámbrica en esos países, y por la continua caída en el precio promedio de los PC", dijo.
Por su parte, Luis Anavitarte, vicepresidente de investigaciones de Gartner, dijo que "mientras que los mercados desarrollados aportaron casi el 60 por ciento de los primeros 1.000 millones de PC instalados, esperamos que los países emergentes aporten cerca del 70 por ciento de los siguientes 1.000 millones de PC".
Enter. Julio de 2008
UNE LANZA LA TELEVISION I.P.
La principal ventaja de este sistema es la interactividad. Inicialmente estará disponible en Bogotá y Medellín.
La posibilidad de ver el programa que quiera a la hora que usted desee es uno de los beneficios del nuevo servicio de televisión interactiva que la empresa de telecomunicaciones Une lanzó ayer para Medellín y Bogotá.
Este servicio se basa en la tecnología de TV por redes IP (TVIP), en donde la señal de video es transmitida por la misma 'autopista' por la cual viaja la información en Internet, "pero en lugar de que los datos lleguen al computador con esta tecnología todo va directamente al televisor a través de un decodificador", explicó Javier León Navas, experto en tecnología de Motorola.
El servicio de televisión interactiva de Une ofrecerá 105 canales de video y 50 canales de audio. En Medellín, el plan básico tendrá un costo de 95.000 pesos para estratos 3 y 4, y de 116.000 para estratos 5 y 6 (más IVA), mientras que en Bogotá el servicio va desde 117.000 pesos en estrato 3. Por ese precio se recibirá un paquete compuesto por una conexión a Internet de 1 Megabits por segundo (Mbps) de velocidad, telefonía ilimitada y la TV interactiva.
De acuerdo con voceros de la compañía, la inversión para el funcionamiento inicial de este sistema es de 110 millones de dólares, lo que permitirá cubrir algunas zonas de Bogotá y Medellín.
La posibilidad de ver el programa que quiera a la hora que usted desee es uno de los beneficios del nuevo servicio de televisión interactiva que la empresa de telecomunicaciones Une lanzó ayer para Medellín y Bogotá.
Este servicio se basa en la tecnología de TV por redes IP (TVIP), en donde la señal de video es transmitida por la misma 'autopista' por la cual viaja la información en Internet, "pero en lugar de que los datos lleguen al computador con esta tecnología todo va directamente al televisor a través de un decodificador", explicó Javier León Navas, experto en tecnología de Motorola.
El servicio de televisión interactiva de Une ofrecerá 105 canales de video y 50 canales de audio. En Medellín, el plan básico tendrá un costo de 95.000 pesos para estratos 3 y 4, y de 116.000 para estratos 5 y 6 (más IVA), mientras que en Bogotá el servicio va desde 117.000 pesos en estrato 3. Por ese precio se recibirá un paquete compuesto por una conexión a Internet de 1 Megabits por segundo (Mbps) de velocidad, telefonía ilimitada y la TV interactiva.
De acuerdo con voceros de la compañía, la inversión para el funcionamiento inicial de este sistema es de 110 millones de dólares, lo que permitirá cubrir algunas zonas de Bogotá y Medellín.
Según Sergio Restrepo, vicepresidente de tecnología de Une, llevar televisión digital a los hogares requiere banda ancha de gran capacidad, y por eso "estamos modernizado toda nuestra red. En este momento ya tenemos el 50 por ciento listo y a finales del 2008 tendremos el 75 por ciento".
Lo nuevo de la TVIP
Una de las grandes novedades de la televisión por IP es la interactividad, que en este caso se refiere a la posibilidad de que los usuarios escojan su programación; ellos podrán ver el contenido que presentan los canales a la hora que quieran y no en el momento en que los programas son transmitidos.
Según Restrepo, ese servicio será introducido próximamente, pero desde ya los usuarios pueden acceder a varias características similares. Por ejemplo, hay una videotienda en la que los televidentes pueden alquilar más de 300 películas.
Ese servicio permite detener, adelantar y retroceder lo que se está viendo en ese momento, como si se tratara de un DVD. El valor del alquiler varía dependiendo de qué tan nuevo sea el título, y los precios comienzan en 2.500 pesos.
Así mismo, para las personas más aficionadas al entretenimiento, la compañía presentó el servicio de Videoclub, en el cual los usuarios pueden acceder a un catálogo de series, cursos y conciertos. Esta opción solo está disponible por suscripción, desde 15.000 pesos mensuales más IVA.
Qué ofrece la televisión por IP de Une
- Canales: en la oferta básica se incluyen 105 canales de video y 50 canales de audio. El paquete premium trae los canales de películas HBO, Cinemax, Cinecanal y Moviecity.
- Recordatorios: esta opción permite programar alertas que le informan al usuario cuando empieza un programa.
- Videotienda: a través de este servicio Une ofrece 300 películas, junto con una colección de videos y musicales. Estos contenidos están disponibles bajo la modalidad de alquiler y se pueden detener, adelantar y retroceder como si se tratara de un DVD.
- Videoclub: se trata de un catálogo con programación a la cual el cliente puede acceder cuando quiera; hay series, cursos de entrenamiento y conciertos.
- Guía interactiva: permite acceder a toda la información sobre la programación, clasificación de programas y películas, junto a reseñas e información adicional.
- Control de padres: esta opción sirve para bloquear los canales que los niños no deben ver. En el futuro Une permitirá bloquear programas específicos y no todo un canal.
¿Qué es la televisión IP o TVIP?
TVIP es la transmisión de la señal televisiva por las mismas vías que se usan para acceder a la información de Internet.
El operador de TVIP (en este caso Une) recibe la señal de los canales distribuidores (como Warner, TNT, Sony o Fox) como si se tratara de cualquier otro operador de TV por cable.
La señal se pasa a digital con el formato de compresión MPEG-4. Luego el contenido se transmite por una red de telecomunicaciones (ADSL o fibra óptica) a los hogares. Allí la recibe un decodificador o 'set top box' (entregado por el operador), que vuelve a pasar la información digital a video para ser reproducida en un TV.
En la TVIP el proveedor solo transmite el contenido que el usuario solicita (tal como funciona Internet), lo cual ahorra capacidad en la red; en cambio, en la TV por cable común el operador transmite todo el contenido a todos los usuarios todo el tiempo.
El Tiempo. Revista Enter. Agosto de 2008
HORA CERO DEL ESTANDAR DE T.V. DIGITAL
Los comisionados de televisión de Colombia se reunirán desde el 20 de agosto para analizar el tema.
En correspondencia con la complejidad e importancia de la decisión que se va a tomar, la Comisión Nacional de Televisión (Cntv) realizará entre el 20 y el 22 de agosto un 'cónclave' para definir el estándar de televisión digital que adoptará el país, una medida que repercutirá en los colombianos mucho más que la transición de la TV del blanco y negro al color.
La reunión, en la que solo participarán los cinco comisionados de televisión y el grupo directivo de la Cntv, se realizará en Bogotá. No obstante, en un principio se había planteado la posibilidad de hacerla en Villa de Leyva.
En correspondencia con la complejidad e importancia de la decisión que se va a tomar, la Comisión Nacional de Televisión (Cntv) realizará entre el 20 y el 22 de agosto un 'cónclave' para definir el estándar de televisión digital que adoptará el país, una medida que repercutirá en los colombianos mucho más que la transición de la TV del blanco y negro al color.
La reunión, en la que solo participarán los cinco comisionados de televisión y el grupo directivo de la Cntv, se realizará en Bogotá. No obstante, en un principio se había planteado la posibilidad de hacerla en Villa de Leyva.
Aunque al cierre de este encuentro la Cntv tendrá una decisión sobre el estándar de TV digital que usará Colombia, la elección solo se hará pública el 28 de agosto cuando la entidad tenga 'en limpio' los argumentos técnicos, económicos y jurídicos que respaldan su posición. Ese día la entidad dejará en firme su posición mediante la votación de su junta directiva.
Como se recuerda, desde el año 2006 la Cntv viene estudiando los diversos estándares de televisión digital: americano, europeo, japonés y chino.
Precisamente, ayer, durante la realización del último foro de TV digital organizado por la comisión en el norte de Bogotá, los representantes de los cuatros estándares en disputa expusieron nuevamente las ventajas técnicas y comerciales de cada uno de los formatos, así como las cartas que están dispuestas a jugarse con miras a la elección a finales de este mes.
Por ejemplo, Robert Graves, presidente de ATSC Forum (estándar americano), destacó la potencia de la señal de su tecnología, que permitiría a los colombianos adquirir decodificadores más económicos.
Por su parte, Akira Terasaki, viceministro de Asuntos Internos y Comunicaciones del Japón, dijo que el formato de su país tiene una mejor respuesta en la geografía quebradiza de Colombia (que es similar a la de ese país de Asia) y recordó que no serán necesarias inversiones adicionales para emitir una señal de TV digital que pueda ser vista en teléfonos celulares.
Por ejemplo, Robert Graves, presidente de ATSC Forum (estándar americano), destacó la potencia de la señal de su tecnología, que permitiría a los colombianos adquirir decodificadores más económicos.
Por su parte, Akira Terasaki, viceministro de Asuntos Internos y Comunicaciones del Japón, dijo que el formato de su país tiene una mejor respuesta en la geografía quebradiza de Colombia (que es similar a la de ese país de Asia) y recordó que no serán necesarias inversiones adicionales para emitir una señal de TV digital que pueda ser vista en teléfonos celulares.
A su vez, Eladio Gutiérrez, representante del estándar europeo, aseguró que su formato es el más flexible y universal (está en 120 países) y recordó que desde hace tres meses se hicieron mejoras en el tema de movilidad que permiten ofrecer las mismas características del estándar japonés.
Fuera de las explicaciones técnicas ofrecidas por cada formato, el evento también sirvió para ver por primera vez en el país el estándar de televisión digital chino (DMV-T/H); este formato fue dado a conocer hace algunos días en el marco de los Juegos Olímpicos, que se desarrollan en este país asiático.
En su presentación, los delegados chinos hicieron hincapié en las ventajas que tiene ser el último gran formato presentado en el mundo.
Qingguo Li, presidente del Instituto de Radio y Estandarización de Televisión de China, aseguró que su estándar ofrece una señal más robusta, con mejor recepción en los teléfonos móviles y un mayor cubrimiento.
Así mismo, indicó que este formato ha superado las pruebas a las que ha sido sometido en Hong Kong, Cuba y Venezuela.Después de escoger el formato de televisión digital que funcionará en Colombia, se prevé que la primera emisión con el nuevo estándar se realizará entre febrero y marzo del 2009.
Sin embargo, no hay que olvidar que el Gobierno tiene previsto dar un plazo de siete a diez años (aún no se ha definido) para hacer la transición a la nueva tecnología y realizar el llamado 'apagón analógico' (el momento en el que dejará de transmitirse la señal tradicional).
La transición a la TV digital
La transición a la TV digital afectará tan solo la señal pública que reciben los colombianos. Es decir, la señal abierta (no la que se recibe por TV paga) que envían canales como RCN, Caracol, Señal Colombia y cada uno de los canales regionales que funcionan en el país.
El plan contempla la adecuación de una red de TV digital (la Cntv cree que debe ser una red única que funcione para todos). Los canales tendrán que emitir su señal en el formato seleccionado, mientras que los televidentes deberán tener televisores habilitados para recibir la nueva tecnología si quieren disfrutar de sus ventajas (mejor señal, audio de más calidad, opciones interactivas, etc.).
Algunos de los nuevos TV que se venden en el país ya tienen incorporado un sintonizador que permite recibir este tipo de señales; si el televisor no lo posee, los usuarios tendrán que comprar un decodificador que habilite el televisor para ese adelanto tecnológico (costarían desde 30.000 hasta 150.000 pesos, aproximadamente).
Con la TV digital los televidentes podrán recibir varias señales por un mismo canal (por ejemplo, RCN noticias, RCN novelas y RCN variedades); ver algunas de esas señales en alta definición o disfrutar de parte de ese contenido en aparatos móviles (como teléfonos celulares habilitados para TV).
Formatos en disputa
ATSC (americano). Advanced Television System Committee. Ha sido adoptado en países como Estados Unidos, Canadá, México, Corea del Sur y Honduras. Según expertos, su gran fortaleza es su calidad de imagen de alta definición: 1.920 píxeles por 1.080 líneas. Los dueños de la patente son las sedes en Estados Unidos de LG Electronics y Zenith Electronics.
ISDB (japonés). Integrated Services Digital Broadcasting. Está presente en la TV pública de Japón y fue modificado en Brasil (SBTD), país que también lo usa. Ha sido catalogado por expertos como uno de los más completos por su calidad de audio y video, así como sus ventajas para TV móvil. El propietario de la patente es ARIB (Association of Radio Industries and Businesses).
DVB -T (europeo). Digital Video Broadcasting. Se usa en más de 120 países de Europa, Asia, África, Oceanía y América. Se destaca por ofrecer mejores funciones para la transmisión de TV en dispositivos móviles. No tiene patentes. Las tecnologías de este formato son abiertas y pueden ser modificadas para mejorar el estándar.
DMV-T/H (chino). Digital Multimedia Broadcast- Terrestrial/Handheld. Es el formato aprobado por la República Popular de China e incluye a Hong-Kong (cerca de 1.300 millones de habitantes). Fue desarrollado por las universidades Tsinghua (Beijing) y Jiaotong (Shanghai), y presentado oficialmente en el 2007. Sus representantes dicen que la principal ventaja está en que agrupa la tecnología de los otros tres formatos existentes y que su costo es menor.
La Comisión Nacional de Televisión,
no improvisa en la definición del estándar de TV digital.
La Comisión Nacional de Televisión no está improvisando en la toma de la decisión sobre el estándar de Televisión Digital Terrestre, TDT, más conveniente para el país, porque durante dos años ha realizado los estudios y las pruebas técnicas necesarias.Así lo dejó claro la directora de la Comisión Nacional de Televisión (CNTV), María Carolina Hoyos Turbay, en la Comisión VI del Senado de la República, donde reiteró que la toma de la decisión del estándar digital la harán los cinco miembros de la Junta Directiva de la CNTV, e inmediatamente la darán a conocer al país.
La directora de la CNTV agregó que han sido muchas las acciones que la entidad ha realizado para tomar su decisión, como: visitas a los países que ofrecen los sistemas reconocidos en el mundo; pruebas técnicas en todo el territorio nacional; estudios sobre el impacto socioeconómico que generará la TDT en Colombia; 29 reuniones con el comité técnico; 12 foros en todo el país para escuchar a los colombianos, y varios debates en el Congreso, entre otras acciones. "Esto demuestra que la decisión que vamos a tomar estará bien sustentada, porque será el resultado de un proceso serio, profundo y responsable".
Hoyos Turbay también reiteró que la televisión pública, tanto nacional como regional, no tiene por qué preocuparse con la llegada de esta nueva tecnología, porque el Estado financiará toda su implementación. Por otro lado, resaltó que a todos los estándares se les dio la misma oportunidad y que todos fueron analizados a profundidad: "Todos los sistemas que probamos en nuestra geografía demostraron ser sólidos, unos mejores que otros, pero todos buenos. El gran interrogante es saber cuál es el que se adapta más a nuestro país, no sólo desde el punto de vista técnico, sino también desde aspectos como el impacto socioeconómico que cause en el país y en nuestros televidentes", expresó la directora de la CNTV.
Sobre la propuesta del senador Moreno Rojas, en el sentido de aplazar la toma de la decisión sobre el estándar, la directora de la CNTV ratificó que no existen motivos para postergarla: "Tenemos los argumentos suficientes para entregarle al país una determinación favorable".
El Tiempo. Agosto de 2008 - CNTV
LA REVOLUCIÓN DE LA FOTOGRAFÍA

Es el reflejo del cambio en la línea de un negocio que mueve más de 1.000 millones de euros en el mundo y que en Colombia, de acuerdo con estadísticas de Nielsen a junio 30 de este año, ha crecido en la categoría de fotografía digital un 73%, superando de lejos a segmentos de audio y televisión, que antes eran los más tradicionales en Colombia.
Una renovación que fue entendida por los protagonistas de este segmento tecnológico y que ha hecho que tanto fabricantes como distribuidores, cambien de lente y se enfoquen en la diversificación del mercado y la industria en sí.
Eduardo Echavarría, gerente general de Foto Japón es uno de esos testigos y por eso tiene claro que “varias empresas de papel y película, han cerrado sus puertas. Las cámaras análogas ya no se producen y el rollo en un par de años tiende a desaparecer. En Foto Japón en el año 2000 vimos para dónde iba la industria y teníamos dos caminos: esperar a que la empresa se apagara o crear un negocio nuevo dentro de una compañía reconocida a nivel nacional”.
Estrategia que sirvió para que además de revelar o imprimir imágenes, los más de 180 almacenes de este grupo se concentraran en ofrecer un portafolio de productos que de acuerdo con Echavarría, solucionaban las necesidades en el hogar. Y lo están logrando, pues de cada 10 clientes que entran a imprimir una fotografía, siete u ocho resultan comprando uno de sus “otros” productos, entre ellos, computadores, reproductores mp3, teléfonos, parlantes, cámaras digitales, impresoras, memorias y grabadoras.
Respuesta provocada por la caída de precios del dólar y la amplia oferta de productos fáciles de manejar, que están ofreciendo masivamente los fabricantes. “El disparo fue hace tres años, cuando se dio la masificación. Y los resultados se ven hoy cuando se observa que lo que antes costaba $1 millón, hoy está por debajo de $500.000”, explica Andrés García, gerente senior de la división audio y video de Samsung Colombia. Y agrega: “Antes la gente veía la fotografía como algo de profesionales, las fotos no salían bien y requería conocimientos, ahora las cámaras traen composición de luz y estabilizadores ópticos automáticos, que permiten sacar buenas fotos al inexperto”.
Por eso el tema de los rollos pasó a un segundo plano y ahora lo importante es tener tarjetas de memoria con amplia capacidad y sumado a ello, una buena impresora en casa u oficina.
“Lo que estamos haciendo es brindar posibilidades infinitas de impresión, facilitando todos los eslabones de la cadena. El mercado en Colombia tiene mucho espacio para crecer y por eso lo que le decimos al consumidor es que compre la cámara y además el dispositivo para imprimir sus imágenes, las que mejor capturó y las que considere realmente buenas, que les ponga marcos, etiquetas y que haga tarjetas con fotos para sus fiestas por ejemplo, algo que no se podía hacer antes en casa”, relata María Ángela Espinosa, Gerente de Mercadeo del Grupo de Imagen e Impresión de HP Colombia.
Tendencia creciente que en el 2007 hizo que los fabricantes de cámaras vendieran 100 millones de unidades en todo el mundo, registrando un aumento del 23% frente a las cifras de 2006. Y junto a ellas, la venta de portaretratos digitales por cerca de $150.000 cada uno, ha hecho que la gente prefiera llevar varias docenas de sus imágenes en memorias USB, para verlas allí, dejando a un lado la práctica de la impresión.
Algo que contrasta con una de las mayores peticiones de los clientes de Foto Japón, pues comenta Ecahavarría, “a nuestros almacenes llegan permanentemente diciendo que al computador o la memoria le entró un virus, que no encuentran las fotos y que les ayudemos a recuperarlas, al menos una, dicen”.
Por eso, el empresario insiste en que el negocio no se ha acabado, “ha cambiado y eso lo hemos entendido”, dice, y cuando habla de precios, aclara que el público que llega es igual al que llegaba en las épocas del revelado de rollos, porque el valor de las copias es el mismo por unidad ($500). Pero aclara que los volúmenes anteriores eran muy superiores, porque se debían revelar rollos de 12, 24 o 36 imágenes, en cambio, ahora se imprime solamente la que escoge el usuario.
Entre tanto, Carolina Vásquez de Canon Latinoamérica, una de las firmas líderes en el negocio, comenta que esta revolución de la fotografía es producto de una transformación gigante; “la utilización de la nueva tecnología ha propiciado una simplificación de procesos, desde un cambio en la cámara hasta un cambio en la mentalidad y la forma de realizar las imágenes. Hoy el usuario puede controlar todos los procesos creativos, desde la selección de la realidad hasta la imagen final”.
Es la radiografía de una industria que ha hecho que segmentos como el del revelado de diapositivas prácticamente haya desaparecido, que el uso de químicos en el cuarto oscuro sea cosa del pasado y que las cámaras de rollo ya no las produzcan los fabricantes masivamente, sino que escasamente se hayan convertido en la opción “de un solo uso” o desechables. Por eso la tecnología más que imágenes impresas, está dejando la historia familiar guardada en uno que otro álbum virtual.
Cuarto oscuro
“El computador es el cuarto oscuro de hoy. La tecnología se apoderó de la fotografía, no fue porque los fotógrafos la pidieran, sino porque llegó. La imagen digital es más cruda y registra más información, es más práctica y rápida en condiciones extremas de luz, que eso no lo permitía la análoga, por el cambio de rollo. Entonces al morir el revelado se impone lo digital, que viene relacionado con la computadora, la internet y el teléfono celular, que permite a cualquier persona ser un potencial reportero”.
Inmediatez
“Para el fotógrafo de prensa la fotografía digital ha permitido concentrarse más en el contenido que en la parte técnica. Entonces la calidad de las imágenes es muy superior a la que podíamos hacer antes, cuando se estaba en condiciones extremas. Y a nivel informativo tenemos la inmediatez de tomar la foto y, máximo tres minutos más tarde, presentarla a los lectores en los sitios web de los medios”.
Un mercado en crecimiento
De acuerdo con las cifras de Hewlett-Packard Colombia, sus ventas respecto a los productos fotográficos este año han crecido en un 20%, comparadas con las estadísticas del año pasado. Y Samsung por su parte informó que al cierre del primer semestre de 2008, logró una participación del mercado de audio y video del 32% en unidades, donde aparece su segmento de fotografía, quedándose de esta forma con el primer lugar de la fotografía digital en el país. Del total de este mercado, el 47% está concentrado en cámaras de 7 megapixeles, pero la tendencia dice que los usuarios ya están buscando mejor definición en la imagen y por eso el segmento que prevé mayor crecimiento con la dinámica de compras de Navidad es el de 8 megapixeles, que hoy tiene el 31% de la composición de ventas, respecto a las últimas cifras de AC Nielsen, a junio 30 de 2008 en Colombia.
Edwin Bohórquez Aya EL ESPECTADOR, Julio de 2008
COLOMBIA, CON SATELITE PROPIO EN EL 2011

Está tomando forma el plan del Gobierno de contar con un satélite propio que atienda las necesidades de sectores como las telecomunicaciones y la defensa, entre otros.
La ministra de Comunicaciones, María del Rosario Guerra, le confirmó a este diario que su cartera tiene previsto incluir en el presupuesto del 2009 los recursos necesarios para sacar adelante esta iniciativa, valorada en 220 millones de dólares (unos 388.960 millones de pesos).
Pero este ministerio no será la única entidad gubernamental que participará en el proyecto. Precisamente, Guerra indicó que esta semana se reunió con su homólogo de Defensa, Juan Manuel Santos, con el fin de vincularlo.
La ministra de Comunicaciones, María del Rosario Guerra, le confirmó a este diario que su cartera tiene previsto incluir en el presupuesto del 2009 los recursos necesarios para sacar adelante esta iniciativa, valorada en 220 millones de dólares (unos 388.960 millones de pesos).
Pero este ministerio no será la única entidad gubernamental que participará en el proyecto. Precisamente, Guerra indicó que esta semana se reunió con su homólogo de Defensa, Juan Manuel Santos, con el fin de vincularlo.
Así mismo, la funcionaria planea invitar a otras carteras, por ejemplo la de transporte, y organismos que requieran de conectividad satelital para el desarrollo de sus labores.
El Ministerio de Comunicaciones calcula que sus programas de telecomunicaciones sociales ocuparán el 60 por ciento de la capacidad total del satélite, con lo cual queda un 40 por ciento disponible para que otras dependencias del Gobierno, o incluso el sector privado, la aprovechen.
Se espera que en los primeros meses del 2009 se realice la contratación de la empresa que fabricará el satélite y, de mantenerse el cronograma inicial, se pondría este dispositivo en operación en el año 2011. Previamente, el Ministerio de Comunicaciones solicitó a la Unión Internacional de Telecomunicaciones (UIT) que le informe sobre las alternativas para el posicionamiento de este satélite.
CABLE PARA SAN ANDRÉS
De otra parte, la ministra María del Rosario Guerra informó que ya están listos los prepliegos de la licitación mediante la cual se seleccionará a la empresa que se hará cargo de tender un cable submarino que conecte a Colombia con el archipiélago de San Andrés y Providencia.
Según se conoció, empresas como Telefónica y Columbus Networks han expresado al Gobierno su interés de participar en este proyecto, para el que se tiene previsto un presupuesto de 44.820 millones de pesos.
El Gobierno prevé que una vez asignada esta licitación el cable submarino será tendido en los siguientes 12 a 16 meses, con lo cual entrará en funcionamiento en el primer trimestre del 2010.
Diario El Tiempo, Agosto de 2008
Suscribirse a:
Entradas (Atom)