domingo, 13 de junio de 2010

Actualizacion sobre apagon en El salvador, honduras, guatemala y Nicaragua.

Noticias de ultima hora señalan que la vicepresidenta Hondurena dio declaraciones sobre el problema generado en la central hidroelectrica el cajon, en honduras.

Segun la presidenta en funciones, la falla se debio a una sobre carga en la demanda de energia y debido a la interconexion con los demas paises el apagon se extendio por la region causando alarma entre todos la mayoria de centroamericanos, segun informes en el salvador aun hay zonas sin energia, hasta hace unos minutos se informaba que la unoin y parte de la zona central como san vicente y la paz aun estaban sin energia asi como el norte de Honduras, gradualmente se reestablecera la energia informo la vicepresidenta, que debido al viaje de pepe lobo esta en funciones.

La central de el cajon ha presentado muchas fallas e incluso ha sido señalada con problemas de diseño desde sus inicios, el sitema de interconexion entre estos paises permite que una falla en cualquiera de los miembros afecte a los otros paises provocando caos y dejando a millones sin energia. Afortunadamente el apagon se dio en horas nocturnas y en dia de descanso, pero ya se pueden imaginar las consecuencias si este problema hubiera ocurrido en horas laborales y en un dia normal con los niveles de trafico de vehiculos de centroamerica.

Seguiremos informando. Gracias por sus votos y comentarios sobre esta informacion.

Origen del apagon en El Salvador, Honduras y Nicaragua!!!

Se informa que la razon del apagon general experimentado segun informes en todo El salvador, Honduras Guatemala y Nicaragua, tuvo su  origen en una falla tecnica en la central hondureña de Francisco Morazan, conocida como El Cajon.

CENTRALHIDROELECTRICA EL CAJON




El gerente de la Empresa Nacional de Energía Eléctrica (ENEE), Roberto Martínez Lozano, informa que la causa del apagón fue técnico y se origino en el sistema de transformación del centro nacional de despacho en la represa de El Cajón, ocasionando la falla en todo el país.

El apagon se propago a los paises vecinos a consecuencia del sistema de interconexion regional que hay entre esas naciones, en ocasiones anteriores se han dado fallas en paises vecinos que afectan a nuestro pais, asi como a otros de la region.

Las condiciones para un apagon de tal magnitud son muy especificas y particulares, sin tener nada que ver las empresas distribuidoras en este fenomeno.  Segun reportan en Honduras algunas zonas aun estan a oscuras y tardara algunas horas reestablecer el servicio.  Esperemos que ninguna familia halla sufrido daños en sus equipos a consecuencia de la falla.

Seguiremos investigando e informando al respecto, gracias desde ya por sus votos y comentarios sobre este articulo.

El salvador queda totalmente a oscuras

Grave falla en el sistema electrico de el salvador deja a todo el pais a oscuras, la falla franca dejo a casi el 90% del pais a oscuras a eso de la 7:25 de la noche, casualmente yo venia descendiendo del cerro de los planes y pude ver el momento en que san slavador y sus alrededores quedaban totalmente a oscuras, segun informacion preliminar honduras y guatemala tambien sufrieron los efectos del apagon debido al sistema de iterconexion de los 3 paises. El fluido electrico esta volviendo progresivamente a todo el pais debido a el sincronismo necesario para el correcto funcionamiento de la red. Esperemos que las empresas generadoras y distribuidoras, asi como la UT den un reporte oficial sobre el misterioso apagon general.

ACTUALIZACION DE ULTIMA HORA
Nueva actualizacion, circulan ya rumores en el pais y algunos reportes en las radios que no solo Guatemala y honduras han sufrido el apagon general que se dio esta noche, sino tambien dicen que Estados Unidos tambien, para verificar dicho rumor, ya que no se le puede llamar de otra forma, he hecho una verificacion de ultimo minuto en los mas importantes medios de informacion de USA, CNN, y otros, asi tambien en la pagina oficial del departamento de energia de USA y no hay nada oficialmente reportado, tambien se informa que la energia aun no llega a lugares de el salvador com la union, tacachico la paz y otras zonas, esperemos que la situacion se normalize cuanto antes.

http://energy.gov/

martes, 8 de junio de 2010

Proyecciones de huawei para redes de datos Ultra High speed

El gigante chino de redes de telecomunicaciones Huawei asegura que este año se desplegarán más de 20 redes comerciales de cuarta generación de telefonía móvil en todo el mundo. Justin Zhao, máximo responsable de la compañía en esta tecnología, denominada LTE (Long Term Evoluction), explica que para 2011 habrá entre 40 y 50 redes comerciales de este tipo. "Ya hay proyectos comerciales y pilotos en marcha, pero los grandes despliegues tendrán lugar entre 2011 y 2012", dice.
Huawei ha logrado ya 11 contratos para explotar esta tecnología en Europa, Asia y Norteamérica. Entre otros, ganó el primer contrato comercial de LTE del mundo con la operadora Telia Sonera para desplegar la cuarta generación en Oslo, y un acuerdo con 02, del grupo Telefónica, para hacer un piloto en Reino Unido.
La compañía asiática confía en gran parte a esta tecnología su crecimiento y expansión internacional. Tanto es así que de los 20 centros de I+D que tiene en todo el mundo, siete los tiene dedicados a LTE (tres en China, uno en Suecia, otro en Rusia y dos en EE UU). Y de los 12.000 ingenieros que tiene trabajando en tecnologías inalámbricas, 2.500 se centran en la cuarta generación.
Zhao reconoció, no obstante, que aún hay retos importantes por afrontar en la cuarta generación. Entre ellos citó la escasez de terminales. "Este año calculamos que 20 proveedores lanzará n terminales con LTE, lo que acelerará los lanzamientos comerciales". Otro reto para los operadores, asegura, es "cómo convertir el aumento de tráfico de datos en dinero". Según el directivo, este tráfico se ha duplicado entre 2008 y 2010 y se multiplicará por cinco en 10 años. "Los operadores tendrán que hacer una inversión que sea muy efectiva en costes. Y la única manera de conseguirlo es mediante una solución de banda ancha unificada como la que Huawei lanzó este año, llamada SingleRAN. Ésta podrá asumir el enorme aumento en el tráfico de banda ancha móvil, reduce el coste por bit y hace que los servicios móviles de banda ancha sean más rentables para los operadores.

Velocidades de 1.200 megas en laboratorio!!!!

Justin Zhao explica que la tecnología LTE va a proporcionar una gran capacidad de transmisión. "Hemos alcanzado en laboratorio velocidades de descarga de 1.200 megabits, pero no en la vida real". El directivo confiesa que en las "redes vivas" hay un montón de interferencias que evitan una transmisión de alta calidad, así que hay que solucionar los problemas de cobertura incluyendo los referidos al interior de los edificios.
En este punto, Zhao señaló que es necesario hacer mejoras en las redes existentes de los operadores y eso abre otro reto y es el de "proteger las inversiones que ya han hecho los operadores en las redes actuales, reduciendo el número de antenas e instalaciones".

Huawei S7 tablet con snapdragon 1 Ghz y Android anunciada!!

Es uno de los fabricantes que trabajan para la operadora Movistar y su última aparición en el mercado es la de el teléfono Ivy.
Huawei quiere desmarcarse y finalmente se ha decidido a mostrar su proyecto Huawei S7 ( un tablet de grandes características ) en el Computex 2010.
Aunque no tenga su stand, ha tenido que mostrarlo en el de Qualcomm y se ha podido ver como funciona a las mil maravillas.
Lo presentó en el Mobile World Congress 2010, pero no ha creido oportuna su fabricación, al menos por ahora.
A las conocidas 7 pulgadas ( 1.024 x 600 píxeles ), esta es capaz de visualizar contenido en alta definición. Es de tipo capacitiva.
Integra un procesador Qualcomm Snapdragon MSM8250 de 1 GHz, memoria por ahora desconocida y maneja el sistema operativo Android 2.1.
En cuanto a conexiones, dispone de USB, conector jack 3,5 mm y un slot para tarjetas de tipo Micro SD.
Por ahora el fabricante no ha comentado si llegará a ser real, ni tampoco ha asegurado fecha ni precio.

viernes, 28 de mayo de 2010

La guerra de las tablets ha iniciado con Apple y Dell

Hasta hace algún tiempo tener una Tablet pc o una touchscreen era demasiado caro para la mayoría de usuarios, salvo algún ejecutivo o para algunas aplicaciones especiales, el tener una Tablet era algo demasiado costoso.  Hp fue uno de los primeros en sacar un modelo con un precio más accesible de laptop con pantalla tipo touchscreen, antes  de Hp fue la empresa FUJITSU la líder en fabricación de tablets o pen tablets, y con precios elevados comparados con una laptop normal, particularmente tuve la suerte de ser de los primeros usuarios de pen tablets debido a que se propusieron como una solución alternativa para el problema de hacer drive test o mediciones de cobertura de las redes celulares , ya que para esa tarea se requería usar una laptop, pero debido a los movimientos del vehículo, sobre todo en calles rurales, la pantalla sufría considerables sacudidas para las cuales no estaban diseñadas aflojando considerablemente la pantalla y en el peor de los casos rompiéndola. 
  Los primeros modelos que use de FUJITSU trabajaban bastante bien y únicamente presentaban el problema de calentar mucho y contar con dos o un solo puerto USB, lo cual limitaba su uso. Por lo demás eran muy funcionales, sobre todo para las mediciones d drive test.  Básicamente las pen Tablet  no eran más que una laptop normal únicamente con la movilidad de su pantalla la cual podía girar y plegarse completamente y la funcionalidad de pantalla táctil o touchscreen.
Existían también la opción de las Tablet pc que eran básicamente una pantalla touchscreen con toda la funcionalidad de una pc pero con un precio mucho más elevado aun que el de una pen Tablet, el nombre pen Tablet, claro está, era porque se incluida un lápiz especial para poder usarlo en modo de touchscreen sobre la pantalla.
Hoy en día la empresa Apple ha fabricado su versión de lo que según sus conceptos es una Tablet o como ellos la llaman iPod, esta es una maquina completamente al estilo de las clásicas Tablet pc de FUJITSU, pero por supuesto con todo el estilismo, características minimalistas típicas de los productos de Apple, pero la diferencia más significativa es no solo su portabilidad y funcionalidad de ser básicamente una tabla delgada y ligera, sino su precio.  El precio promedio de una Tablet de FUJITSU era de cerca de $2,000 a $3,000 USD, mientras que la pen Tablet rondaba los $1500 a $2,000 USD, Apple ha logrado bajar este precio hasta en 50% o más dependiendo de la configuración y el país donde se compre, claro de los del primer mundo que es donde ya está disponible, como siempreeeeee.
Pero Apple no está sola en el mercado de las innovaciones, DELL anuncio el lanzamiento de un aparato, ya que no se pude llamar laptop, ni Tablet pc, el cual tiene las funciones básicas de un moderno celular, pero con un tamaño más grande que un celular normal, aun un poco más que un BlackBerry, y cuenta con acceso a internet y muchas funciones propias de una pc y a un precio que ronda los $600 USD, el plus de esta opción de DELL puede ser el hecho de ser un teléfono celular y funcionar como una pc básica, a diferencia de la opción de Apple.
Veremos cuál es el vencedor de estas dos opciones, y cómo evolucionan los precios y capacidades de ambos productos, o si surge un nuevo competidor en el mercado de la Tablet, los precios podrían mantenerse en el nivel donde están pero sí podrían mejorar las funcionalidades con el avance de la tecnología y el desarrollo de sistemas operativos más funcionales, claro si no usan una versión de Windows.
Ver video DELL Streak

Ver video iPAD
http://www.youtube.com/watch?v=oSHgxSTnylk&feature=channel

Fibra Óptica… la luz al servicio de las telecomunicaciones (III)


En nuestra última entrega sobre fibra óptica discutíamos sobre los nuevos métodos o tecnologías de multiplexacion  llamadas DWDM, decíamos que esta técnica había permitido un crecimiento enorme en la capacidad de transmisión de las fibras ya existentes y daba más capacidad de tráfico para todas las aplicaciones actuales que en su mayoría son datos.
 Pasaremos ahora a mencionar algunas de las herramientas que existen en el mercado para realizar las pruebas y mediciones necesarias tanto para la instalación como para el mantenimiento diario y para la búsqueda y solución de fallas en las redes ópticas.
Iniciamos mencionando a una de las primeras máquinas que fue necesario crear o diseñar para poder hacer un tendido de fibra óptica más allá de ciertas longitudes o distancias, hablamos de la FUSIONADORA esta máquina de tamaño bastante reducido es la encargada de unir o empalmar dos fibras cuando se hace  un tendido. La fusionadora básicamente trabaja generando un arco eléctrico el cual funde o fusiona ambos extremos de la fibra que se quiere empalmar y permite así poder hacer tendidos de distancias de decenas o cientos de kilómetros. Estas pequeñas pero muy útiles maquinas son unas de las más antiguas que surgieron o se dieron a conocer en la época que se hicieron las primeras redes con fibra óptica para grandes distancias.
Entre las marcas más conocidas de fusionadoras están  FUJIKURA, SUMITOMO Y AURORA, Claro  que existen más fabricantes pero esas son de las que más se oyen en el medio de esta región, cabe decir que el precio de una de estas máquinas aun en estos días es muy grande y son muy pocas las empresas que poseen estos aparatos debido a su alto costo, inicialmente los precios eran mucho más altos pero con la competencia estos bajaron y aun más las fusionadoras se han ido perfeccionando.  Finalmente diremos que el ambiente donde se hacia esta fusión era un tanto difícil de obtener idealmente ya que para garantizar que el empalme quedara con la calidad necesaria, se debía hacer en una atmosfera lo más limpia de contaminantes o partículas como el polvo, pero debido a que las fusiones usualmente se hacen en el sitio donde termina una fibra e inicia la otra es decir una calle una carretera etc. se usaban vehículos cerrados con algunas características especiales que permitían  esta atmosfera más limpia.
  En la actualidad la tecnología ha avanzado tanto que en algunas fibras ya no se usa el empalme por fusión sino una forma de empalme mecánico que consiste en una pequeña caja, digámoslo así, que une ambas puntas de fibra y a la cual se le aplica un tipo de gel con propiedades ópticas especiales que hace las veces de pegamento y fija ambas fibras para su funcionamiento, esto facilito aún más y abarato el costo de instalar redes de fibra, ya que no necesita usar las fusionadoras.
Otro de los equipos primeros en aparecer por necesidad fueron las fuentes láser utilizadas en las pruebas preliminares y post instalación, así como en otras aplicaciones. Estas consisten en un circuito generador de un láser el cual se usa para diversos propósitos, estas fuentes venían o vienen para trabajar en una frecuencia especifica ya sea para fibras mono modo o fibras multimodo según sea el caso. Su costo no es tan elevado y en estos días son aún más accesibles.
Otro más y quizá uno de los más importantes y que sigue y seguirá siendo indispensable a la hora de verificar la calidad de un tendido o red de fibra es el famoso OTDR, acrónimo para Optical Time Domain Reflectometer o en español, reflectometro óptico en el dominio de tiempo.  Este importante aparto sirve para verificar la calidad de un tendido en el sentido de garantizar que las pérdidas que un haz o señal óptica sufrirá a lo largo de la fibra sean acorde a los estándares o a lo permitido por los organismos rectores y garantizar así un funcionamiento óptimo del medio físico de transmisión.
Pero de que perdidas estamos hablando?  Bueno pues la fibra óptica por ser un medio físico con características especiales para trasmitir una señal no eléctrica, está limitado físicamente bajo ciertas condiciones importantes por ejemplo a diferencia de cable eléctrico la fibra no debe doblarse más allá de ciertos radios de curvatura, no debe sufrir aplastamientos,  o realizarle quiebre muy pronunciados a lo largo de su ruta, esto se debe a que como dijimos en entregas anteriores, la fibra es un tipo de tubo dentro del cual el haz de luz viaja no en forma recta sino dando rebotes de pared en pared a lo largo de la fibra, estos rebotes están limitados a ciertos ángulos más allá de  los cuales el haz no puede avanzar y de ahí las limitaciones en su forma física que tiene la fibra.
Pero que pasa donde la fibra ha sido empalmada? Pues también existen pérdidas las cuales deben ser minimizadas hasta ser insignificantes para el funcionamiento óptimo, estas pérdidas debidas a dobladuras, roturas, o dobleces pronunciados son los que mide el OTDR, así como también las distancias reales para el tendido.  Si unos dobles o un empalme mal hecho están generando pérdidas en la red de fibra, el OTDR las detectara y mostrara gráficamente en sus resultados de las mediciones.
Pero como funciona un OTDR?  Como hace para ver o medir estas pérdidas?
Bueno pues el OTDR no es más que un aparato que consiste básicamente de una potente fuente laser de una longitud de onda específica, y una parte de circuitería que puede ver y procesar el retorno de luz que viaja dentro de la fibra una vez se encuentra con algún dobles, corte, empalme, o el extremo final de una fibra.  A Este retorno de luz se le llama en ingles backscatter o dispersión hacia atrás, como todos sabemos la luz viaja en línea recta hasta golpear o encontrarse con algún objeto y rebota o se regresa a su fuente en trayectorias diversas, El láser como ya dijimos antes es luz con la característica que su haz viaja de forma coherente es decir en la misma dirección y por tanto sus rebotes al hallar un obstáculo están limitados a regresar en dirección casi opuesta.
Esta señal que rebota o se regresa es la que ve el OTDR y la analiza midiendo primeramente su potencia de retorno es decir con que potencia regresa y otras características más lo cual permiten obtener información sobre roturas, dobleces, empalmes, o el final de la fibra.  Es importante decir que el has que el OTDR lanza dentro de la fibra tiene características especiales de cuerdo a la longitud de onda, distancia de la fibra a medir, tipo de fibra, y otras más. La duración del pulso de luz también es un parámetro importante ya que como el lector entenderá  a mas duración del pulso mayor distancia puede recorrer y de ahí que pueda llegar o ver más lejos dentro de la fibra, pero esta duración del pulso afecta también la calidad de la información que se obtiene de las mediciones, de ahí que es con estos parámetros que se juega a la hora de hacer una medición con OTDR. 
Finalmente mencionaremos otros aparatos más modernos o recientes que se usan para capturar tramas de la información que viaja por la red de fibra y que tiene propósitos múltiples ya sea para medición de tráfico, depuración de problemas de mensajería o protocolos como el SS7, o hacer pruebas de calidad de transmisión para evitar fenómenos propios de les redes de trasmisión o transporte como son el Jitter y el wander de los cuales hablaremos en otra ocasión. Dos de los fabricantes más grandes e importantes de equipo para pruebas ópticas son Agilent Techlonogies y sunrise Telecom, ambos de Estados Unidos,  cabe decir que estos equipos son muy caros y usualmente solo los operadores o empresas de telecomunicaciones pueden costearlos. 
Si los lectores tiene alguna consulta sobre este tema favor dejarla en comentarios para darle respuesta o aclaración.

DISCULPAS POR LA FALTA DE ACTUALIZACIONES


Hola a todos los amables lectores y visitantes de este blog, les pedimos disculpas por no haber actualizado el blog por casi una semana, pero debido a múltiples tareas y compromisos de trabajo tuvimos que dejar por un momento sin actualizar el blog.  
  Pero ya estamos acá de nuevo y con muchas ganas de publicar nuevos e interesantes artículos sobre telecomunicaciones, gracias a todos por sus votos  insistimos en dejar cualquier comentario o sugerencia de algún tema particular de interés, saludos a todos.

viernes, 21 de mayo de 2010

Facebook traiciona a sus miembros

Facebook ha entrado en el ojo del huracan, pero esta ves no por ser el sitio social mas famoso o usado en el mundo, sino por traicionar la confianza de sus millones de usuarios a nivel mundial.


   Facebook, MySpace y quiza otros sitios de redes sociales vendieron la informacion de sus usuarios y han puesto esta informacion a disposicion de futuros compradores, quienes suelen ser empresas de mercadeo, publicidad, empresas de buros de informacino crediticia y otros mas. En sus terminos de confidencialidad estos sitios planteaban que no venderia o transmitirian la informacino de sus usuarios a terceras personas, pero cuando el Wall Street Journal, respetado y reconocido periodico financiero cuestiono a facebook sobre este tema se quedaron callados y no respondieron ni dieron niguna declaracion limitandose a modificar inmediatamente los terminos de confidencialidad en sus sitios, los cuales ya el dia de ayer jueves aparecieron actualizados.


Los noticieros gringos tambien han publicado este suceso, sobre todo por que para los usuarios de estados unidos la confidencialidad de su informacion personal es un de los temas tabu o mas sagrados que defender, mientras que los latinos y mas aun los centroamericanos no nos preocupamos por estos temas y nuestra informacion personal rueda de sitio en sitio y de empresa en empresa sin que nadie haga o diga siquiera algo por ello.

Uno de estos usuario norteamericanos especificamente de canada, molesto ha creado un movimiento  llamado en ingles "retirate de facebook el 31 de mayo" www.quitfacebookday.com  el y su grupo piden a todos los usuarios que el dia 31 se retiren de facebok cerrando sus cuentas para presionar o castigar al sitio por haber traicionado su confianza al vender o compratir la informacion personal de cada usuario.

Esperemos a ver el desenlace que este movimiento pueda tener sobre todo en norteamerica que es donde mas se respeta el derecho a la privacidad de la informacion personal.

lunes, 17 de mayo de 2010

Fibra Óptica… la luz al servicio de las telecomunicaciones (II)


Continuamos con la segunda entrega sobre fibra óptica y las redes ópticas de transmisión o  transporte.
 Lo último que mencionamos en la entrega anterior era sobre la medida de la longitud de onda de la luz que se usa para transmitir sobre fibra óptica, decíamos que era de orden de nanómetros.
Además de ser de una longitud de onda muy pequeña también tiene otra características especiales  por ejemplo, las fuentes de esta luz pueden ser de  al menos dos tipos, una llamada tipo LED y otra laser puro, la diferencia entre ambas es la técnica empleada para la generación del haz, es decir las fuentes  LED usan un circuito de diodos emisores de luz, que generan una señal óptica con cierto nivel de potencia y frecuencia especifica.  Mientras que las fuentes laser tal como su nombre lo dicen generan un pulso o haz laser para transmitir la información sobre la fibra, una de las características principales del láser es la potencia y la coherencia de su haz.
Pero que es coherencia? Pues coherencia es una propiedad de los laser que consiste en que todas las ondas que conforman el haz viajan en fase o por decirlo de otra forma menos técnica viajan de forma coordinada a diferencia por ejemplo de un bombillo sencillo que la luz que emite está formada por frentes de onda que viajan en distintas direcciones y sentidos a partir de su origen, mientras que el haz laser a partir de su origen viaja en línea recta y todos sus frentes de onda viajan de forma ordenada y en una misma dirección o en fase, lo cual permite concentrar la energía de estos frentes de onda y de ahí que algunos tipos de laser industriales se usan para corte de metales ya que generan una cantidad de calor elevada debido a la coherencia de su haz.
Pero inicialmente las redes de transmisión que hicieron uso de este medio no eran puramente redes ópticas en el más puro sentido de la palabra, sino más bien redes hibridas entendiéndose por redes hibridas aquellas que dentro de su estructura de funcionamiento de transmisión tiene segmentos puramente ópticos pero que en algún momento hacen uso de conversores óptico-eléctricos y viceversa.
Esta conversión del dominio óptico al eléctrico resta velocidad y eficiencia a las redes que así trabajan.  La segunda generación( Si es que se le puede llamar así) de redes ópticas fueron las redes que usaron la tecnología llamada DWDM siglas que significan Dense Wavelenght  Division Multiplexing.
                                                              Red SONET tipica usando un laser por fibra

Esta nueva técnica de multiplexacion consiste principalmente en usar muchas de las propiedades ópticas de la luz en el dominio de la frecuencia para incrementar la capacidad de tráfico total de estas y aprovechar así aún más las propiedades de la fibra. Las primeras redes de transporte hicieron uso de la tecnología SDH para la transmisión de información sobre fibra logrando tazas máximas hasta de 11Gb/s o como técnicamente se le llamaba redes con STM64, en nuestro país el salvador al igual que en los demás de Latinoamérica se instalaron las primeras redes SDH sobre fibra hace muchos años atrás, lo cual permitió un crecimiento en el ancho de banda disponible para ciertos usuarios finales y vino a dinamizar el acceso a internet para la mayoría de hogares junto a otros beneficios.

Pero con la nueva tecnología DWDM esta taza de 11Gb/s se superó con creces y obviamente esto tendrá o tiene, donde ya existen estas redes, un efecto en la tasa máxima de acceso a internet disponible para los usuarios finales tipo residencial o empresarial, como todos recordaran en los 90’s y aun en el 2000 hablar de un acceso de 256Mb/s era hablar de velocidad según los estándares de esa época hoy en día esa taza le daría risa a cualquier y mucho más a alguien que tiene un acceso hasta de 2 o 3 Mb/s con las redes 3G. Pero como vemos este crecimiento y abaratamiento en el acceso a internet junto a otros beneficios como la implementación de servicios digitales para el tráfico de voz de línea fija, se debió gracias a la alta velocidad y altas tazas de tráfico que soportan los sistemas ópticos.
Hablemos un poco  más sobre DWDM, esta tecnología simplemente hace uso de una de las propiedades de la luz como es su frecuencia usando para modular y multiplexar la información el hecho de que la luz en general puede descomponerse en múltiples frecuencias y obviamente pueden fabricarse láseres que emitan en frecuencias específicas.  Inicialmente las redes de fibra en realidad consistían de un cable madre o central el cual contiene en su interior varios hilos de fibra individuales, los cuales se usaban de forma independiente del resto.
Por cada hilo de fibra se establecía uno y solo un enlace ya fuera de tipo dedicado o con usos varios. A los cliente finales que demandaban altas tazas de tráfico y velocidad como empresas grandes o bancos se les vendía en realidad un enlace vía fibra y este quedaban para uso exclusivo o dedicado de ese cliente en particular, como se entenderá el número de hilos de fibra dentro del cable madre es limitado, y esto también limitaba el uso de canales dedicados disponibles.
Posteriormente surgió una tecnología intermedia que permitió incrementar la capacidad de un solo hilo de fibra por medio del uso de varias fuentes laser simultaneas sobre la misma fibra y separadas en segmentos de frecuencia hasta con 16 canales independientes dentro del rango de los 1310nm hasta los 1610nm a estas redes que usaban una separación ente fuentes de más de 20nm se les llamaba redes con CWDM o Coarse WDM es decir modulación gruesa.
En los 90’s la tecnología permitió disminuir este valor de separación de 20nm hasta 0.8nm permitiendo enviar más de 16 canales por una sola fibra y a este sistema se le llamo DWDM o Denso WDM, denso debido a obvias razones ya que el resultado eran mucho más de 16 canales pro fibra. A cada uno de estos canales se les llama dentro del lenguaje técnico de las redes ópticas  como Lambdas o canales lambdas o simplemente lambda, este nombre se origina de la letra griega que se usa para simbolizar a la frecuencia en las ecuaciones físico-matemáticas para su tratamiento.  El sistema consiste en múltiples fuentes laser cada una con su frecuencia propia o lambda la cual es enviada junto a otras fuentes sobre una misma fibra.
El resultado final en términos de tazas de transmisión es del orden de Terabytes por segundo o Tb/sec.   Para algunas empresas de telecomunicaciones de Latinoamérica 11Gb/s es suficiente para manejar los actuales servicios de vos y datos. Pero a las menos dos empresas locales ya tiene instaladas redes DWDM y eso les permite estar preparados para manejar cualquier cantidad de tráfico al menos dentro de unos anos.
Uno de los grandes beneficios de la tecnología DWDM es el hecho de que no es necesario usar nuevas fibra o realizar un nuevo tendido de fibra, sino que puede usarse la misma fibra para transmitir con DWDM requiriendo únicamente hacer cambios o instalar los módulos necesarios para DWDM. A futuro es posible aumentar mucho mas la capacidad de las fibras por medio del uso de tecnicas mixtas de modulacion como son TDM y DWDM en la figura puede verse como funciona.

En la próxima entrega hablaremos de las herramientas actualmente disponibles en él ,mercado para hacer pruebas en estas redes de fibra y cómo funcionan.
BONO:
Grafico de sistema combinado y algunas de las tazas posibles.

viernes, 14 de mayo de 2010

Fibra Óptica… la luz al servicio de las telecomunicaciones (I)


En esta ocasión iniciaremos una entrega de artículos sobre el medio de transmisión conocido como Fibra Óptica, sus orígenes, su estructura, funcionamiento, las herramientas usadas para hacer pruebas en ella y algo sobre las aplicaciones modernas y más avanzadas hasta el momento.
Iniciamos esta primera entrega con un poco de historia sobre los medios de transmisión y su evolución hasta llegar a las redes modernas. Después de la invención del teléfono, posterior al telégrafo, este fue ganando terreno y aceptación entre las personas de la época quienes al inicio lo veían solo como una curiosidad o invento sin mayor uso y hubo más  de alguno que auguro un mal futuro para este invento. Sin embargo la historia se encargaría de mostrar a todos sus detractores los beneficios y múltiples aplicaciones que el teléfono trajo a la vida de las sociedades que poco a poco fueron implementando sus primeras líneas telefónicas.
  Pero una consecuencia adicional al crecimiento del número de líneas y abonados de los teléfonos fue la enorme cantidad de tráfico que se generó y esto a su vez con el tiempo obligo a los ingenieros de las compañías que ya existían a ingeniarse formas de enrutar todas estas llamadas y más aún en países como estados unidos con extensiones territoriales de enorme envergadura esto requirió de soluciones aún más ingeniosas cuando se dio la necesidad de unir las ciudades lejanas entre si por algún medio que permitirá el flujo masivo de información de tráfico de llamadas.
Una de las primeras tecnologías que vinieron a dar solución a estos problemas eran los cables de cobre, posteriormente con el avance de la tecnología y la aparición de las microondas para uso más comercial  se instalaron enlaces para distancias considerables que permitían enviar y recibir cantidades de información más grandes.
   Pero con el enorme avance y desarrollo de las redes y más aun con la aparición allá por los 70’s de las primeras formas  de redes celulares y todas sus sucesoras los medios de transmisión existentes llegaron al límite de sus capacidades de transporte de información, la cual cabe decir que ya no solo consistía en llamadas de voz, sino en una mezcla de datos y llamadas de voz, junto con información necesaria para su gestión y direccionamiento.
Por estas y otras razones, como fue el desarrollo de medios con capacidades de transmisión de altas, y gran velocidad que ya no tenían un medio de soporte  de cobre o que ya no usaban las ondas de radio como medio físico de transmisión, fue que el trafico masivo paro en manos de lo que se conoce hoy como redes de fibra óptica o redes ópticas de transmisión.
Pero que es la fibra óptica? Tal como su nombre lo indica este medio de transmisión ya no tiene que ver con el transporte de señales puramente eléctricas o de RF, y ya no hace uso del medio físico de cables de cobre, sino que consiste de un material de tipo plástico que específicamente está en su mayoría hecho a base de sílice que es uno de los materiales más abundantes de la tierra que en su forma más ordinaria podríamos decir es arena como la que se encuentra e cualquier playa o desierto.
Pero como es que esta arenisca se convierte en un medio tan práctico y eficiente para el transporte de cantidades masivas de información y a velocidades muy superiores a las alcanzadas por el cobre?
Bueno pues sencillamente los fabricantes de fibras ópticas hacen uso de tecnologías que convierten la sílice junto a otros componentes que le dan o mejoran las propiedades ópticas las cuales son la base central del funcionamiento de la fibra, este material primario es convertido en un hilo muy fino de diámetros muy pequeños parecidos a el grosor del hilo de pesca básico, y muy parecido a este también en cuanto a su apariencia física.
  Este material final llamado fibra óptica es una especie de tubo muy fino o pequeño con propiedades de reflexión específicas para ciertas frecuencias,  pero acá llegamos a un punto muy interesante como recordara el amable lector de sus clases de física de colegio, la luz, que es el medio físico de transmisión de la información en la fibra, tiene dos teorías que sustentan o explican su estructura básica, una que dice que la luz en general está compuesta de un tipo de partículas llamadas fotones las cuales carecen de masa y carga eléctrica  y cada fotón transporta una cantidad finita de energía dentro de sí; mientras que la otra teoría dice que la luz está formada por ondas o bloques de ondas que obedecen a las leyes de maxwell y que pueden ser tratadas y explicadas en base a este enfoque como ondas.
La fibra toma parte de una y otra teoría ya que en principio ambas son válidas y correctas y además de eso complementarias ya que la una explica ciertos comportamientos y fenómenos que la otra no pude y viceversa. La teoría de fibra óptica  dice que la luz entra al interior de un hilo de fibra y se mueve dentro de este no en forma de un rayo lineal y continuo, sino más bien rebotando como si fueran rayos que ven dando rebotes de una pared a la otra y así avanzan a lo largo de la fibra.  A estos rebotes y a sus respectivos ángulos que esa líneas rectas imaginarias forman dentro de la fibra es que se le llama modos de la fibra y de ahí proviene el adjetivo que todos han oído alguna vez como fibras mono modo y fibras multimodo.
Aparte de los modos de oscilación o rebote de los rayos dentro de la fibra, existen también otros parámetros importantes como son la frecuencia específica para las que son hechas las fibras, la luz como enseñan en las clases de física no es más que oscilaciones  electromagnéticas que abarcan un amplio rango de frecuencias y lo que llamamos luz visible no es más que una pequeñísima porción de este espectro,  teniendo la luz visible dos limites que son los famosos términos infrarrojo o más allá del  color rojo, y ultravioleta o más allá del violeta, pero resulta que por razones técnicas la luz que viaja dentro de la fibra no es  visible y tiene una longitud de onda distinta a la de la luz visible a este rango de longitudes de onda se le llama ventana y es uno de los parámetros técnicos que se especifica cuando se habla de fibras.

Esta longitud de onda debido a la alta frecuencia a la que existe la luz es de un tamaño extremadamente pequeño tanto que su longitud de onda se mide en nanómetros que es una medida del orden de 10 elevado a la menos 9 ósea 10E-9 . Otro dato importante sobre la fibra es que la fuente de luz no es una fuente común sino de un tipo especial para esa aplicación.
En la próxima entrega continuaremos con los detalles de los tipos de fuentes de luz que se usan en las líneas de fibra óptica y muchas más de sus características, esperamos tus votos, comentarios y sugerencias sobre futuros temas que te gustaría ver en este blog.

miércoles, 12 de mayo de 2010

Mapa mundi con distribucion de frecuencias GSM en uso actualmente

Para  usar como consulta o información general presentamos este mapa con la distribución de paises con uso de las bandas GSM 850Mhz, 900Mhz, 1800Mhz, 1900Mhz como es sabido las bandas 900 1800 son casi de uso exclusivo en europa y otras regiones, mientras las bandas 850 1900 tiene mas presencia en américa, con algunas excepciones.

Espero les sea de útilidad, gracias por sus comentarios, si tienen alguna sugerencia para publicar algun topico de su interes favor dejarlo en comentarios, saludos.



Listado de paises con sus frecuencias en uso para 2G 3G y 4G

martes, 11 de mayo de 2010

Como deben hacerse los Drive Test Perspectiva del cliente o de ingeniero??


Las mediciones de drive test son el pan diario de todos los operadores celulares estas mediciones y los datos que ellas  permiten extraer de las redes son una de las más importantes herramientas de uso diario, sino es que la más importante, esto debido a que la información que ofrecen es lo más cercano a la experiencia real del cliente final de las operadoras. Pero debido a la naturaleza misma de las pruebas por ser mediciones de la interfaz de aire de la red, como es su nombre técnico, y depender de las muchas variaciones y cambios abruptos que las señales de RF presentan, estas mediciones son sujetas a discusiones en cuanto a la forma en que deben ejecutarse y más específicamente existe una discusión entre todos los usuarios de esta herramienta de cómo deben ir colocados los terminales de prueba dentro del vehículo que se use para las mediciones.
Pero veamos un poco más en detalle como exactamente funcionan estas mediciones de drive test. El equipo en si en su configuración más básica consiste de un teléfono de prueba que permite extraer la información de control y tráfico que la red le envía, un software de captura de esta información la cual es codificada y empaquetada dentro de un archivo propio del software, una antena receptora de señal de GPS la cual estampa la información de coordenadas del punto donde se esté haciendo la medición, y finalmente un escáner o analizador de canales de la red, este último dispositivo es el más caro.
  Para algunos el escáner es más importante ya que la información que provee es totalmente independiente de la red, es decir el simplemente barre y captura lo que el vea en el aire y lo guarda dentro del mismo archivo de la medición, la diferencia fundamental de un escáner contra un teléfono de prueba es que a diferencia del escáner el teléfono reporta exactamente la información que la red le envía por medio de los canales respectivos y es esta información la que se guarda en el archivo de la medición, mientras que el escáner no recibe ningún dato directamente de la red sino que captura lo que su antena externa vea en el aire y lo guarda en el archivo sin importar sus características, es decir si la señal que ve tiene bajo nivel baja calidad etc.
El punto de discusión que queremos tratar acá radica precisamente en cómo o donde deben ir colocados los terminales de prueba dentro del vehículo que se use para las mediciones. Para algunos los terminales o teléfonos de prueba deberían ir en una posición libre y sin obstáculos que impidan o deterioren el nivel de señal que el móvil perciba de la red, para estos fines se usan soportes especializados los cuales ubican el teléfono cerca del parabrisas frontal de los vehículos o cerca de las ventanas laterales, e incluso hay algunos que piden se use una antena externa para mejorar el nivel de recepción de los teléfonos dentro del vehículo, pero el punto es que si lo que se quiere es usar estas mediciones para ver como está la red en cuanto a niveles de señal y calidad de la misma y poder así optimizar el servicio y que el cliente pueda tener un buen servicio dentro del área de cobertura de las celdas, entonces abogan otros los terminales deberían colocarse lo más parecido a donde usualmente los llevan los clientes  y este es todo un menú de opciones ya que como todos sabemos por experiencia depende hasta del genero del usuario así trata y llevan sus teléfonos, por ejemplo, de todos es bien sabido que la mayoría de mujeres acostumbran llevar sus terminales al fondo de sus carteras las cuales están llenas de todos los accesorios que ellas usan y si es en vehículo la cartera usualmente va sobre el asiento del lado en los de la parte de atrás o a veces en el piso del pasajero de al lado casi debajo del asiento, algunos otros lo guardan dentro de las guanteras o en los depósitos para guardar objetos que algunos vehículos tiene, otros más lo llevan siempre en sus cinturas dentro del estuche o dentro de la camisa o dentro de la bolsa interior de un saco, las opciones son muchas y variadas.
  Pero que implicación técnica tiene el lugar donde se guarde el teléfono para el nivel de señal que se reciba el el móvil?
  Bueno personalmente realice pruebas de este tipo en al menos dos países a petición de los clientes para quienes realizábamos mediciones de drive test, algunos las solicitaron por no estar de acuerdo con  los niveles obtenidos para sus redes en ciertos puntos, y otros buscando investigar si la posición realmente influye de manera significativa en los valores medidos.  En ambos casos se encontró que en efecto la posición influye mucho sobre el nivel de señal percibido por el teléfono, y que en efecto la diferencia encontrada en valores de dbm registrados por el móvil varía desde 2 o 3 dbm hasta 5 o 7 hasta 10 dbm dependiendo de los materiales de las carteras el tipo de vehículo el polarizado y otros  factores, los casos más extremos son de aquellos que guardan su teléfono en el fondo de la bolsa de sus pantalones, los que lo dejan por ahí tirado en el piso o dentro de las gavetas del vehículo.  Pero hay un punto más que discutir, que muchos sacan como su as bajo la manga a la hora de discutir el tema,  los clientes que reciben llamadas al conducir usualmente sujetan el terminal con su mano y lo llevan al lado de sus oídos cerca de la ventana y esto dicen cambia totalmente el panorama de las cosas.
   Pero a más de esto un análisis profundo y muchos años de experiencia con diferentes clientes me deja decir que a conveniencia de quien ordene las mediciones y el propósito final así cambia la importancia de donde debe ir ubicado el terminal de prueba por ejemplo:  Si las mediciones las ordena un vendor que pretende dar un reporte de calidad de los sitios instalados por primera vez y poder obtener su tan ansiada aceptación del sitio bien podría caer en la tentación, llamémosle así, de colocar los terminales en la posición más ventajosa para obtener las estadísticas necesarias para sus propósitos, en el caso más extremo he visto quienes solicitan o exigen usar antenas externas para mejorar los niveles percibidos por el teléfono, esto además de otros trucos del oficio que a veces se pueden hacer para lograr de cierta forma maquillar una red y obtener la aceptación del cliente.  En otro caso totalmente diferente he visto operadores como clientes que piden expresamente el terminal se coloque de la forma más natural posible, y algunos discuten todavía si deben ir o no cerradas las ventanas de los vehículos, lo cual puede significar un par de dbm en los resultados.
     Personalmente y con la experiencia que me acompaña, puedo decir que si la medición pretende ver la perspectiva del cliente de la calle ya sea dentro o fuera de un vehículo, las mediciones deberían hacerse en un ambiente lo más parecido a la experiencia del cliente para poder así más o menos ver lo que ve el cliente quien no es un experto en RF ni sabe mucho de celulares y antenas internas y cosas como estas, y si de vendors se trata pues la cosa queda más en la ética y la buena relación vendor - operador  que exista y los interese económicos que hayan de por medio.
Técnicamente hablando y dentro de los más estrictos términos de la ingeniería de RF tanto la estructura metálica como las ventanas y los materiales de las carteras donde se guardan los teléfonos de los clientes si afectan los niveles de señal percibidos por los móviles y si deberían tomarse en cuenta a la hora de decidir cómo se háganlas mediciones y se debería usar el criterio que si para un teléfono que va guardado en una cartera o en una gaveta o en la bolsa de alguien se logra hacer llegar un buen nivel de señal y con buena calidad pues entonces para el cliente de a pie se tendrán mejores niveles.
Otros criterios técnicos son la velocidad a la que se hagan las mediciones porque no es lo mismo hacer mediciones a baja velocidad y lograr así buenos resultados cuando en realidad los clientes andan a velocidad normal es decir entre 40 a 110km/h, usualmente todos los equipos para mediciones tiene la opción de configurarse que haga las mediciones en base a tiempo o en base a distancia medida por el GPS, este es otro criterio importante que muchas veces no se toma en cuenta o no se considera a la hora de medir, aparte de que las mediciones estrictamente de vos no son iguales ni se deben hacer como se hacen las de datos  sean estos GPRS/EDGE o HSDPA/HSUPA, pero este es otro tema que abordaremos en otra entrega, finalizamos diciendo que las mediciones de drive test por ser la única forma de poder ver cuál es la experiencia del cliente final deberían ser hechas con mucho cuidado y usando todos los criterios técnicos adecuados a cada caso y el personal que las ejecuta debería no simplemente ser alguien que cargue o lleve una laptop en sus piernas y sepa iniciar y configurar el equipo sino alguien con suficiente preparación y conocimientos de RF para poder tener un criterio técnico muy acertado en valorar los resultados de las mediciones.


BONO

Plataformas de medición más conocidas o populares:
Nombre                           Fabricante o creador
TEMS                               Ericsson (Ahora pertenece a un fabricante llamado ASCOM)
Nitro                                Agilent Technologies (Ahora propiedad de JSDU)
ZK                                     ZK cell test
Probe/Genex                    Huawei
Nemo                                Anite