viernes, 28 de mayo de 2010

La guerra de las tablets ha iniciado con Apple y Dell

Hasta hace algún tiempo tener una Tablet pc o una touchscreen era demasiado caro para la mayoría de usuarios, salvo algún ejecutivo o para algunas aplicaciones especiales, el tener una Tablet era algo demasiado costoso.  Hp fue uno de los primeros en sacar un modelo con un precio más accesible de laptop con pantalla tipo touchscreen, antes  de Hp fue la empresa FUJITSU la líder en fabricación de tablets o pen tablets, y con precios elevados comparados con una laptop normal, particularmente tuve la suerte de ser de los primeros usuarios de pen tablets debido a que se propusieron como una solución alternativa para el problema de hacer drive test o mediciones de cobertura de las redes celulares , ya que para esa tarea se requería usar una laptop, pero debido a los movimientos del vehículo, sobre todo en calles rurales, la pantalla sufría considerables sacudidas para las cuales no estaban diseñadas aflojando considerablemente la pantalla y en el peor de los casos rompiéndola. 
  Los primeros modelos que use de FUJITSU trabajaban bastante bien y únicamente presentaban el problema de calentar mucho y contar con dos o un solo puerto USB, lo cual limitaba su uso. Por lo demás eran muy funcionales, sobre todo para las mediciones d drive test.  Básicamente las pen Tablet  no eran más que una laptop normal únicamente con la movilidad de su pantalla la cual podía girar y plegarse completamente y la funcionalidad de pantalla táctil o touchscreen.
Existían también la opción de las Tablet pc que eran básicamente una pantalla touchscreen con toda la funcionalidad de una pc pero con un precio mucho más elevado aun que el de una pen Tablet, el nombre pen Tablet, claro está, era porque se incluida un lápiz especial para poder usarlo en modo de touchscreen sobre la pantalla.
Hoy en día la empresa Apple ha fabricado su versión de lo que según sus conceptos es una Tablet o como ellos la llaman iPod, esta es una maquina completamente al estilo de las clásicas Tablet pc de FUJITSU, pero por supuesto con todo el estilismo, características minimalistas típicas de los productos de Apple, pero la diferencia más significativa es no solo su portabilidad y funcionalidad de ser básicamente una tabla delgada y ligera, sino su precio.  El precio promedio de una Tablet de FUJITSU era de cerca de $2,000 a $3,000 USD, mientras que la pen Tablet rondaba los $1500 a $2,000 USD, Apple ha logrado bajar este precio hasta en 50% o más dependiendo de la configuración y el país donde se compre, claro de los del primer mundo que es donde ya está disponible, como siempreeeeee.
Pero Apple no está sola en el mercado de las innovaciones, DELL anuncio el lanzamiento de un aparato, ya que no se pude llamar laptop, ni Tablet pc, el cual tiene las funciones básicas de un moderno celular, pero con un tamaño más grande que un celular normal, aun un poco más que un BlackBerry, y cuenta con acceso a internet y muchas funciones propias de una pc y a un precio que ronda los $600 USD, el plus de esta opción de DELL puede ser el hecho de ser un teléfono celular y funcionar como una pc básica, a diferencia de la opción de Apple.
Veremos cuál es el vencedor de estas dos opciones, y cómo evolucionan los precios y capacidades de ambos productos, o si surge un nuevo competidor en el mercado de la Tablet, los precios podrían mantenerse en el nivel donde están pero sí podrían mejorar las funcionalidades con el avance de la tecnología y el desarrollo de sistemas operativos más funcionales, claro si no usan una versión de Windows.
Ver video DELL Streak

Ver video iPAD
http://www.youtube.com/watch?v=oSHgxSTnylk&feature=channel

Fibra Óptica… la luz al servicio de las telecomunicaciones (III)


En nuestra última entrega sobre fibra óptica discutíamos sobre los nuevos métodos o tecnologías de multiplexacion  llamadas DWDM, decíamos que esta técnica había permitido un crecimiento enorme en la capacidad de transmisión de las fibras ya existentes y daba más capacidad de tráfico para todas las aplicaciones actuales que en su mayoría son datos.
 Pasaremos ahora a mencionar algunas de las herramientas que existen en el mercado para realizar las pruebas y mediciones necesarias tanto para la instalación como para el mantenimiento diario y para la búsqueda y solución de fallas en las redes ópticas.
Iniciamos mencionando a una de las primeras máquinas que fue necesario crear o diseñar para poder hacer un tendido de fibra óptica más allá de ciertas longitudes o distancias, hablamos de la FUSIONADORA esta máquina de tamaño bastante reducido es la encargada de unir o empalmar dos fibras cuando se hace  un tendido. La fusionadora básicamente trabaja generando un arco eléctrico el cual funde o fusiona ambos extremos de la fibra que se quiere empalmar y permite así poder hacer tendidos de distancias de decenas o cientos de kilómetros. Estas pequeñas pero muy útiles maquinas son unas de las más antiguas que surgieron o se dieron a conocer en la época que se hicieron las primeras redes con fibra óptica para grandes distancias.
Entre las marcas más conocidas de fusionadoras están  FUJIKURA, SUMITOMO Y AURORA, Claro  que existen más fabricantes pero esas son de las que más se oyen en el medio de esta región, cabe decir que el precio de una de estas máquinas aun en estos días es muy grande y son muy pocas las empresas que poseen estos aparatos debido a su alto costo, inicialmente los precios eran mucho más altos pero con la competencia estos bajaron y aun más las fusionadoras se han ido perfeccionando.  Finalmente diremos que el ambiente donde se hacia esta fusión era un tanto difícil de obtener idealmente ya que para garantizar que el empalme quedara con la calidad necesaria, se debía hacer en una atmosfera lo más limpia de contaminantes o partículas como el polvo, pero debido a que las fusiones usualmente se hacen en el sitio donde termina una fibra e inicia la otra es decir una calle una carretera etc. se usaban vehículos cerrados con algunas características especiales que permitían  esta atmosfera más limpia.
  En la actualidad la tecnología ha avanzado tanto que en algunas fibras ya no se usa el empalme por fusión sino una forma de empalme mecánico que consiste en una pequeña caja, digámoslo así, que une ambas puntas de fibra y a la cual se le aplica un tipo de gel con propiedades ópticas especiales que hace las veces de pegamento y fija ambas fibras para su funcionamiento, esto facilito aún más y abarato el costo de instalar redes de fibra, ya que no necesita usar las fusionadoras.
Otro de los equipos primeros en aparecer por necesidad fueron las fuentes láser utilizadas en las pruebas preliminares y post instalación, así como en otras aplicaciones. Estas consisten en un circuito generador de un láser el cual se usa para diversos propósitos, estas fuentes venían o vienen para trabajar en una frecuencia especifica ya sea para fibras mono modo o fibras multimodo según sea el caso. Su costo no es tan elevado y en estos días son aún más accesibles.
Otro más y quizá uno de los más importantes y que sigue y seguirá siendo indispensable a la hora de verificar la calidad de un tendido o red de fibra es el famoso OTDR, acrónimo para Optical Time Domain Reflectometer o en español, reflectometro óptico en el dominio de tiempo.  Este importante aparto sirve para verificar la calidad de un tendido en el sentido de garantizar que las pérdidas que un haz o señal óptica sufrirá a lo largo de la fibra sean acorde a los estándares o a lo permitido por los organismos rectores y garantizar así un funcionamiento óptimo del medio físico de transmisión.
Pero de que perdidas estamos hablando?  Bueno pues la fibra óptica por ser un medio físico con características especiales para trasmitir una señal no eléctrica, está limitado físicamente bajo ciertas condiciones importantes por ejemplo a diferencia de cable eléctrico la fibra no debe doblarse más allá de ciertos radios de curvatura, no debe sufrir aplastamientos,  o realizarle quiebre muy pronunciados a lo largo de su ruta, esto se debe a que como dijimos en entregas anteriores, la fibra es un tipo de tubo dentro del cual el haz de luz viaja no en forma recta sino dando rebotes de pared en pared a lo largo de la fibra, estos rebotes están limitados a ciertos ángulos más allá de  los cuales el haz no puede avanzar y de ahí las limitaciones en su forma física que tiene la fibra.
Pero que pasa donde la fibra ha sido empalmada? Pues también existen pérdidas las cuales deben ser minimizadas hasta ser insignificantes para el funcionamiento óptimo, estas pérdidas debidas a dobladuras, roturas, o dobleces pronunciados son los que mide el OTDR, así como también las distancias reales para el tendido.  Si unos dobles o un empalme mal hecho están generando pérdidas en la red de fibra, el OTDR las detectara y mostrara gráficamente en sus resultados de las mediciones.
Pero como funciona un OTDR?  Como hace para ver o medir estas pérdidas?
Bueno pues el OTDR no es más que un aparato que consiste básicamente de una potente fuente laser de una longitud de onda específica, y una parte de circuitería que puede ver y procesar el retorno de luz que viaja dentro de la fibra una vez se encuentra con algún dobles, corte, empalme, o el extremo final de una fibra.  A Este retorno de luz se le llama en ingles backscatter o dispersión hacia atrás, como todos sabemos la luz viaja en línea recta hasta golpear o encontrarse con algún objeto y rebota o se regresa a su fuente en trayectorias diversas, El láser como ya dijimos antes es luz con la característica que su haz viaja de forma coherente es decir en la misma dirección y por tanto sus rebotes al hallar un obstáculo están limitados a regresar en dirección casi opuesta.
Esta señal que rebota o se regresa es la que ve el OTDR y la analiza midiendo primeramente su potencia de retorno es decir con que potencia regresa y otras características más lo cual permiten obtener información sobre roturas, dobleces, empalmes, o el final de la fibra.  Es importante decir que el has que el OTDR lanza dentro de la fibra tiene características especiales de cuerdo a la longitud de onda, distancia de la fibra a medir, tipo de fibra, y otras más. La duración del pulso de luz también es un parámetro importante ya que como el lector entenderá  a mas duración del pulso mayor distancia puede recorrer y de ahí que pueda llegar o ver más lejos dentro de la fibra, pero esta duración del pulso afecta también la calidad de la información que se obtiene de las mediciones, de ahí que es con estos parámetros que se juega a la hora de hacer una medición con OTDR. 
Finalmente mencionaremos otros aparatos más modernos o recientes que se usan para capturar tramas de la información que viaja por la red de fibra y que tiene propósitos múltiples ya sea para medición de tráfico, depuración de problemas de mensajería o protocolos como el SS7, o hacer pruebas de calidad de transmisión para evitar fenómenos propios de les redes de trasmisión o transporte como son el Jitter y el wander de los cuales hablaremos en otra ocasión. Dos de los fabricantes más grandes e importantes de equipo para pruebas ópticas son Agilent Techlonogies y sunrise Telecom, ambos de Estados Unidos,  cabe decir que estos equipos son muy caros y usualmente solo los operadores o empresas de telecomunicaciones pueden costearlos. 
Si los lectores tiene alguna consulta sobre este tema favor dejarla en comentarios para darle respuesta o aclaración.

DISCULPAS POR LA FALTA DE ACTUALIZACIONES


Hola a todos los amables lectores y visitantes de este blog, les pedimos disculpas por no haber actualizado el blog por casi una semana, pero debido a múltiples tareas y compromisos de trabajo tuvimos que dejar por un momento sin actualizar el blog.  
  Pero ya estamos acá de nuevo y con muchas ganas de publicar nuevos e interesantes artículos sobre telecomunicaciones, gracias a todos por sus votos  insistimos en dejar cualquier comentario o sugerencia de algún tema particular de interés, saludos a todos.

viernes, 21 de mayo de 2010

Facebook traiciona a sus miembros

Facebook ha entrado en el ojo del huracan, pero esta ves no por ser el sitio social mas famoso o usado en el mundo, sino por traicionar la confianza de sus millones de usuarios a nivel mundial.


   Facebook, MySpace y quiza otros sitios de redes sociales vendieron la informacion de sus usuarios y han puesto esta informacion a disposicion de futuros compradores, quienes suelen ser empresas de mercadeo, publicidad, empresas de buros de informacino crediticia y otros mas. En sus terminos de confidencialidad estos sitios planteaban que no venderia o transmitirian la informacino de sus usuarios a terceras personas, pero cuando el Wall Street Journal, respetado y reconocido periodico financiero cuestiono a facebook sobre este tema se quedaron callados y no respondieron ni dieron niguna declaracion limitandose a modificar inmediatamente los terminos de confidencialidad en sus sitios, los cuales ya el dia de ayer jueves aparecieron actualizados.


Los noticieros gringos tambien han publicado este suceso, sobre todo por que para los usuarios de estados unidos la confidencialidad de su informacion personal es un de los temas tabu o mas sagrados que defender, mientras que los latinos y mas aun los centroamericanos no nos preocupamos por estos temas y nuestra informacion personal rueda de sitio en sitio y de empresa en empresa sin que nadie haga o diga siquiera algo por ello.

Uno de estos usuario norteamericanos especificamente de canada, molesto ha creado un movimiento  llamado en ingles "retirate de facebook el 31 de mayo" www.quitfacebookday.com  el y su grupo piden a todos los usuarios que el dia 31 se retiren de facebok cerrando sus cuentas para presionar o castigar al sitio por haber traicionado su confianza al vender o compratir la informacion personal de cada usuario.

Esperemos a ver el desenlace que este movimiento pueda tener sobre todo en norteamerica que es donde mas se respeta el derecho a la privacidad de la informacion personal.

lunes, 17 de mayo de 2010

Fibra Óptica… la luz al servicio de las telecomunicaciones (II)


Continuamos con la segunda entrega sobre fibra óptica y las redes ópticas de transmisión o  transporte.
 Lo último que mencionamos en la entrega anterior era sobre la medida de la longitud de onda de la luz que se usa para transmitir sobre fibra óptica, decíamos que era de orden de nanómetros.
Además de ser de una longitud de onda muy pequeña también tiene otra características especiales  por ejemplo, las fuentes de esta luz pueden ser de  al menos dos tipos, una llamada tipo LED y otra laser puro, la diferencia entre ambas es la técnica empleada para la generación del haz, es decir las fuentes  LED usan un circuito de diodos emisores de luz, que generan una señal óptica con cierto nivel de potencia y frecuencia especifica.  Mientras que las fuentes laser tal como su nombre lo dicen generan un pulso o haz laser para transmitir la información sobre la fibra, una de las características principales del láser es la potencia y la coherencia de su haz.
Pero que es coherencia? Pues coherencia es una propiedad de los laser que consiste en que todas las ondas que conforman el haz viajan en fase o por decirlo de otra forma menos técnica viajan de forma coordinada a diferencia por ejemplo de un bombillo sencillo que la luz que emite está formada por frentes de onda que viajan en distintas direcciones y sentidos a partir de su origen, mientras que el haz laser a partir de su origen viaja en línea recta y todos sus frentes de onda viajan de forma ordenada y en una misma dirección o en fase, lo cual permite concentrar la energía de estos frentes de onda y de ahí que algunos tipos de laser industriales se usan para corte de metales ya que generan una cantidad de calor elevada debido a la coherencia de su haz.
Pero inicialmente las redes de transmisión que hicieron uso de este medio no eran puramente redes ópticas en el más puro sentido de la palabra, sino más bien redes hibridas entendiéndose por redes hibridas aquellas que dentro de su estructura de funcionamiento de transmisión tiene segmentos puramente ópticos pero que en algún momento hacen uso de conversores óptico-eléctricos y viceversa.
Esta conversión del dominio óptico al eléctrico resta velocidad y eficiencia a las redes que así trabajan.  La segunda generación( Si es que se le puede llamar así) de redes ópticas fueron las redes que usaron la tecnología llamada DWDM siglas que significan Dense Wavelenght  Division Multiplexing.
                                                              Red SONET tipica usando un laser por fibra

Esta nueva técnica de multiplexacion consiste principalmente en usar muchas de las propiedades ópticas de la luz en el dominio de la frecuencia para incrementar la capacidad de tráfico total de estas y aprovechar así aún más las propiedades de la fibra. Las primeras redes de transporte hicieron uso de la tecnología SDH para la transmisión de información sobre fibra logrando tazas máximas hasta de 11Gb/s o como técnicamente se le llamaba redes con STM64, en nuestro país el salvador al igual que en los demás de Latinoamérica se instalaron las primeras redes SDH sobre fibra hace muchos años atrás, lo cual permitió un crecimiento en el ancho de banda disponible para ciertos usuarios finales y vino a dinamizar el acceso a internet para la mayoría de hogares junto a otros beneficios.

Pero con la nueva tecnología DWDM esta taza de 11Gb/s se superó con creces y obviamente esto tendrá o tiene, donde ya existen estas redes, un efecto en la tasa máxima de acceso a internet disponible para los usuarios finales tipo residencial o empresarial, como todos recordaran en los 90’s y aun en el 2000 hablar de un acceso de 256Mb/s era hablar de velocidad según los estándares de esa época hoy en día esa taza le daría risa a cualquier y mucho más a alguien que tiene un acceso hasta de 2 o 3 Mb/s con las redes 3G. Pero como vemos este crecimiento y abaratamiento en el acceso a internet junto a otros beneficios como la implementación de servicios digitales para el tráfico de voz de línea fija, se debió gracias a la alta velocidad y altas tazas de tráfico que soportan los sistemas ópticos.
Hablemos un poco  más sobre DWDM, esta tecnología simplemente hace uso de una de las propiedades de la luz como es su frecuencia usando para modular y multiplexar la información el hecho de que la luz en general puede descomponerse en múltiples frecuencias y obviamente pueden fabricarse láseres que emitan en frecuencias específicas.  Inicialmente las redes de fibra en realidad consistían de un cable madre o central el cual contiene en su interior varios hilos de fibra individuales, los cuales se usaban de forma independiente del resto.
Por cada hilo de fibra se establecía uno y solo un enlace ya fuera de tipo dedicado o con usos varios. A los cliente finales que demandaban altas tazas de tráfico y velocidad como empresas grandes o bancos se les vendía en realidad un enlace vía fibra y este quedaban para uso exclusivo o dedicado de ese cliente en particular, como se entenderá el número de hilos de fibra dentro del cable madre es limitado, y esto también limitaba el uso de canales dedicados disponibles.
Posteriormente surgió una tecnología intermedia que permitió incrementar la capacidad de un solo hilo de fibra por medio del uso de varias fuentes laser simultaneas sobre la misma fibra y separadas en segmentos de frecuencia hasta con 16 canales independientes dentro del rango de los 1310nm hasta los 1610nm a estas redes que usaban una separación ente fuentes de más de 20nm se les llamaba redes con CWDM o Coarse WDM es decir modulación gruesa.
En los 90’s la tecnología permitió disminuir este valor de separación de 20nm hasta 0.8nm permitiendo enviar más de 16 canales por una sola fibra y a este sistema se le llamo DWDM o Denso WDM, denso debido a obvias razones ya que el resultado eran mucho más de 16 canales pro fibra. A cada uno de estos canales se les llama dentro del lenguaje técnico de las redes ópticas  como Lambdas o canales lambdas o simplemente lambda, este nombre se origina de la letra griega que se usa para simbolizar a la frecuencia en las ecuaciones físico-matemáticas para su tratamiento.  El sistema consiste en múltiples fuentes laser cada una con su frecuencia propia o lambda la cual es enviada junto a otras fuentes sobre una misma fibra.
El resultado final en términos de tazas de transmisión es del orden de Terabytes por segundo o Tb/sec.   Para algunas empresas de telecomunicaciones de Latinoamérica 11Gb/s es suficiente para manejar los actuales servicios de vos y datos. Pero a las menos dos empresas locales ya tiene instaladas redes DWDM y eso les permite estar preparados para manejar cualquier cantidad de tráfico al menos dentro de unos anos.
Uno de los grandes beneficios de la tecnología DWDM es el hecho de que no es necesario usar nuevas fibra o realizar un nuevo tendido de fibra, sino que puede usarse la misma fibra para transmitir con DWDM requiriendo únicamente hacer cambios o instalar los módulos necesarios para DWDM. A futuro es posible aumentar mucho mas la capacidad de las fibras por medio del uso de tecnicas mixtas de modulacion como son TDM y DWDM en la figura puede verse como funciona.

En la próxima entrega hablaremos de las herramientas actualmente disponibles en él ,mercado para hacer pruebas en estas redes de fibra y cómo funcionan.
BONO:
Grafico de sistema combinado y algunas de las tazas posibles.

viernes, 14 de mayo de 2010

Fibra Óptica… la luz al servicio de las telecomunicaciones (I)


En esta ocasión iniciaremos una entrega de artículos sobre el medio de transmisión conocido como Fibra Óptica, sus orígenes, su estructura, funcionamiento, las herramientas usadas para hacer pruebas en ella y algo sobre las aplicaciones modernas y más avanzadas hasta el momento.
Iniciamos esta primera entrega con un poco de historia sobre los medios de transmisión y su evolución hasta llegar a las redes modernas. Después de la invención del teléfono, posterior al telégrafo, este fue ganando terreno y aceptación entre las personas de la época quienes al inicio lo veían solo como una curiosidad o invento sin mayor uso y hubo más  de alguno que auguro un mal futuro para este invento. Sin embargo la historia se encargaría de mostrar a todos sus detractores los beneficios y múltiples aplicaciones que el teléfono trajo a la vida de las sociedades que poco a poco fueron implementando sus primeras líneas telefónicas.
  Pero una consecuencia adicional al crecimiento del número de líneas y abonados de los teléfonos fue la enorme cantidad de tráfico que se generó y esto a su vez con el tiempo obligo a los ingenieros de las compañías que ya existían a ingeniarse formas de enrutar todas estas llamadas y más aún en países como estados unidos con extensiones territoriales de enorme envergadura esto requirió de soluciones aún más ingeniosas cuando se dio la necesidad de unir las ciudades lejanas entre si por algún medio que permitirá el flujo masivo de información de tráfico de llamadas.
Una de las primeras tecnologías que vinieron a dar solución a estos problemas eran los cables de cobre, posteriormente con el avance de la tecnología y la aparición de las microondas para uso más comercial  se instalaron enlaces para distancias considerables que permitían enviar y recibir cantidades de información más grandes.
   Pero con el enorme avance y desarrollo de las redes y más aun con la aparición allá por los 70’s de las primeras formas  de redes celulares y todas sus sucesoras los medios de transmisión existentes llegaron al límite de sus capacidades de transporte de información, la cual cabe decir que ya no solo consistía en llamadas de voz, sino en una mezcla de datos y llamadas de voz, junto con información necesaria para su gestión y direccionamiento.
Por estas y otras razones, como fue el desarrollo de medios con capacidades de transmisión de altas, y gran velocidad que ya no tenían un medio de soporte  de cobre o que ya no usaban las ondas de radio como medio físico de transmisión, fue que el trafico masivo paro en manos de lo que se conoce hoy como redes de fibra óptica o redes ópticas de transmisión.
Pero que es la fibra óptica? Tal como su nombre lo indica este medio de transmisión ya no tiene que ver con el transporte de señales puramente eléctricas o de RF, y ya no hace uso del medio físico de cables de cobre, sino que consiste de un material de tipo plástico que específicamente está en su mayoría hecho a base de sílice que es uno de los materiales más abundantes de la tierra que en su forma más ordinaria podríamos decir es arena como la que se encuentra e cualquier playa o desierto.
Pero como es que esta arenisca se convierte en un medio tan práctico y eficiente para el transporte de cantidades masivas de información y a velocidades muy superiores a las alcanzadas por el cobre?
Bueno pues sencillamente los fabricantes de fibras ópticas hacen uso de tecnologías que convierten la sílice junto a otros componentes que le dan o mejoran las propiedades ópticas las cuales son la base central del funcionamiento de la fibra, este material primario es convertido en un hilo muy fino de diámetros muy pequeños parecidos a el grosor del hilo de pesca básico, y muy parecido a este también en cuanto a su apariencia física.
  Este material final llamado fibra óptica es una especie de tubo muy fino o pequeño con propiedades de reflexión específicas para ciertas frecuencias,  pero acá llegamos a un punto muy interesante como recordara el amable lector de sus clases de física de colegio, la luz, que es el medio físico de transmisión de la información en la fibra, tiene dos teorías que sustentan o explican su estructura básica, una que dice que la luz en general está compuesta de un tipo de partículas llamadas fotones las cuales carecen de masa y carga eléctrica  y cada fotón transporta una cantidad finita de energía dentro de sí; mientras que la otra teoría dice que la luz está formada por ondas o bloques de ondas que obedecen a las leyes de maxwell y que pueden ser tratadas y explicadas en base a este enfoque como ondas.
La fibra toma parte de una y otra teoría ya que en principio ambas son válidas y correctas y además de eso complementarias ya que la una explica ciertos comportamientos y fenómenos que la otra no pude y viceversa. La teoría de fibra óptica  dice que la luz entra al interior de un hilo de fibra y se mueve dentro de este no en forma de un rayo lineal y continuo, sino más bien rebotando como si fueran rayos que ven dando rebotes de una pared a la otra y así avanzan a lo largo de la fibra.  A estos rebotes y a sus respectivos ángulos que esa líneas rectas imaginarias forman dentro de la fibra es que se le llama modos de la fibra y de ahí proviene el adjetivo que todos han oído alguna vez como fibras mono modo y fibras multimodo.
Aparte de los modos de oscilación o rebote de los rayos dentro de la fibra, existen también otros parámetros importantes como son la frecuencia específica para las que son hechas las fibras, la luz como enseñan en las clases de física no es más que oscilaciones  electromagnéticas que abarcan un amplio rango de frecuencias y lo que llamamos luz visible no es más que una pequeñísima porción de este espectro,  teniendo la luz visible dos limites que son los famosos términos infrarrojo o más allá del  color rojo, y ultravioleta o más allá del violeta, pero resulta que por razones técnicas la luz que viaja dentro de la fibra no es  visible y tiene una longitud de onda distinta a la de la luz visible a este rango de longitudes de onda se le llama ventana y es uno de los parámetros técnicos que se especifica cuando se habla de fibras.

Esta longitud de onda debido a la alta frecuencia a la que existe la luz es de un tamaño extremadamente pequeño tanto que su longitud de onda se mide en nanómetros que es una medida del orden de 10 elevado a la menos 9 ósea 10E-9 . Otro dato importante sobre la fibra es que la fuente de luz no es una fuente común sino de un tipo especial para esa aplicación.
En la próxima entrega continuaremos con los detalles de los tipos de fuentes de luz que se usan en las líneas de fibra óptica y muchas más de sus características, esperamos tus votos, comentarios y sugerencias sobre futuros temas que te gustaría ver en este blog.

miércoles, 12 de mayo de 2010

Mapa mundi con distribucion de frecuencias GSM en uso actualmente

Para  usar como consulta o información general presentamos este mapa con la distribución de paises con uso de las bandas GSM 850Mhz, 900Mhz, 1800Mhz, 1900Mhz como es sabido las bandas 900 1800 son casi de uso exclusivo en europa y otras regiones, mientras las bandas 850 1900 tiene mas presencia en américa, con algunas excepciones.

Espero les sea de útilidad, gracias por sus comentarios, si tienen alguna sugerencia para publicar algun topico de su interes favor dejarlo en comentarios, saludos.



Listado de paises con sus frecuencias en uso para 2G 3G y 4G

martes, 11 de mayo de 2010

Como deben hacerse los Drive Test Perspectiva del cliente o de ingeniero??


Las mediciones de drive test son el pan diario de todos los operadores celulares estas mediciones y los datos que ellas  permiten extraer de las redes son una de las más importantes herramientas de uso diario, sino es que la más importante, esto debido a que la información que ofrecen es lo más cercano a la experiencia real del cliente final de las operadoras. Pero debido a la naturaleza misma de las pruebas por ser mediciones de la interfaz de aire de la red, como es su nombre técnico, y depender de las muchas variaciones y cambios abruptos que las señales de RF presentan, estas mediciones son sujetas a discusiones en cuanto a la forma en que deben ejecutarse y más específicamente existe una discusión entre todos los usuarios de esta herramienta de cómo deben ir colocados los terminales de prueba dentro del vehículo que se use para las mediciones.
Pero veamos un poco más en detalle como exactamente funcionan estas mediciones de drive test. El equipo en si en su configuración más básica consiste de un teléfono de prueba que permite extraer la información de control y tráfico que la red le envía, un software de captura de esta información la cual es codificada y empaquetada dentro de un archivo propio del software, una antena receptora de señal de GPS la cual estampa la información de coordenadas del punto donde se esté haciendo la medición, y finalmente un escáner o analizador de canales de la red, este último dispositivo es el más caro.
  Para algunos el escáner es más importante ya que la información que provee es totalmente independiente de la red, es decir el simplemente barre y captura lo que el vea en el aire y lo guarda dentro del mismo archivo de la medición, la diferencia fundamental de un escáner contra un teléfono de prueba es que a diferencia del escáner el teléfono reporta exactamente la información que la red le envía por medio de los canales respectivos y es esta información la que se guarda en el archivo de la medición, mientras que el escáner no recibe ningún dato directamente de la red sino que captura lo que su antena externa vea en el aire y lo guarda en el archivo sin importar sus características, es decir si la señal que ve tiene bajo nivel baja calidad etc.
El punto de discusión que queremos tratar acá radica precisamente en cómo o donde deben ir colocados los terminales de prueba dentro del vehículo que se use para las mediciones. Para algunos los terminales o teléfonos de prueba deberían ir en una posición libre y sin obstáculos que impidan o deterioren el nivel de señal que el móvil perciba de la red, para estos fines se usan soportes especializados los cuales ubican el teléfono cerca del parabrisas frontal de los vehículos o cerca de las ventanas laterales, e incluso hay algunos que piden se use una antena externa para mejorar el nivel de recepción de los teléfonos dentro del vehículo, pero el punto es que si lo que se quiere es usar estas mediciones para ver como está la red en cuanto a niveles de señal y calidad de la misma y poder así optimizar el servicio y que el cliente pueda tener un buen servicio dentro del área de cobertura de las celdas, entonces abogan otros los terminales deberían colocarse lo más parecido a donde usualmente los llevan los clientes  y este es todo un menú de opciones ya que como todos sabemos por experiencia depende hasta del genero del usuario así trata y llevan sus teléfonos, por ejemplo, de todos es bien sabido que la mayoría de mujeres acostumbran llevar sus terminales al fondo de sus carteras las cuales están llenas de todos los accesorios que ellas usan y si es en vehículo la cartera usualmente va sobre el asiento del lado en los de la parte de atrás o a veces en el piso del pasajero de al lado casi debajo del asiento, algunos otros lo guardan dentro de las guanteras o en los depósitos para guardar objetos que algunos vehículos tiene, otros más lo llevan siempre en sus cinturas dentro del estuche o dentro de la camisa o dentro de la bolsa interior de un saco, las opciones son muchas y variadas.
  Pero que implicación técnica tiene el lugar donde se guarde el teléfono para el nivel de señal que se reciba el el móvil?
  Bueno personalmente realice pruebas de este tipo en al menos dos países a petición de los clientes para quienes realizábamos mediciones de drive test, algunos las solicitaron por no estar de acuerdo con  los niveles obtenidos para sus redes en ciertos puntos, y otros buscando investigar si la posición realmente influye de manera significativa en los valores medidos.  En ambos casos se encontró que en efecto la posición influye mucho sobre el nivel de señal percibido por el teléfono, y que en efecto la diferencia encontrada en valores de dbm registrados por el móvil varía desde 2 o 3 dbm hasta 5 o 7 hasta 10 dbm dependiendo de los materiales de las carteras el tipo de vehículo el polarizado y otros  factores, los casos más extremos son de aquellos que guardan su teléfono en el fondo de la bolsa de sus pantalones, los que lo dejan por ahí tirado en el piso o dentro de las gavetas del vehículo.  Pero hay un punto más que discutir, que muchos sacan como su as bajo la manga a la hora de discutir el tema,  los clientes que reciben llamadas al conducir usualmente sujetan el terminal con su mano y lo llevan al lado de sus oídos cerca de la ventana y esto dicen cambia totalmente el panorama de las cosas.
   Pero a más de esto un análisis profundo y muchos años de experiencia con diferentes clientes me deja decir que a conveniencia de quien ordene las mediciones y el propósito final así cambia la importancia de donde debe ir ubicado el terminal de prueba por ejemplo:  Si las mediciones las ordena un vendor que pretende dar un reporte de calidad de los sitios instalados por primera vez y poder obtener su tan ansiada aceptación del sitio bien podría caer en la tentación, llamémosle así, de colocar los terminales en la posición más ventajosa para obtener las estadísticas necesarias para sus propósitos, en el caso más extremo he visto quienes solicitan o exigen usar antenas externas para mejorar los niveles percibidos por el teléfono, esto además de otros trucos del oficio que a veces se pueden hacer para lograr de cierta forma maquillar una red y obtener la aceptación del cliente.  En otro caso totalmente diferente he visto operadores como clientes que piden expresamente el terminal se coloque de la forma más natural posible, y algunos discuten todavía si deben ir o no cerradas las ventanas de los vehículos, lo cual puede significar un par de dbm en los resultados.
     Personalmente y con la experiencia que me acompaña, puedo decir que si la medición pretende ver la perspectiva del cliente de la calle ya sea dentro o fuera de un vehículo, las mediciones deberían hacerse en un ambiente lo más parecido a la experiencia del cliente para poder así más o menos ver lo que ve el cliente quien no es un experto en RF ni sabe mucho de celulares y antenas internas y cosas como estas, y si de vendors se trata pues la cosa queda más en la ética y la buena relación vendor - operador  que exista y los interese económicos que hayan de por medio.
Técnicamente hablando y dentro de los más estrictos términos de la ingeniería de RF tanto la estructura metálica como las ventanas y los materiales de las carteras donde se guardan los teléfonos de los clientes si afectan los niveles de señal percibidos por los móviles y si deberían tomarse en cuenta a la hora de decidir cómo se háganlas mediciones y se debería usar el criterio que si para un teléfono que va guardado en una cartera o en una gaveta o en la bolsa de alguien se logra hacer llegar un buen nivel de señal y con buena calidad pues entonces para el cliente de a pie se tendrán mejores niveles.
Otros criterios técnicos son la velocidad a la que se hagan las mediciones porque no es lo mismo hacer mediciones a baja velocidad y lograr así buenos resultados cuando en realidad los clientes andan a velocidad normal es decir entre 40 a 110km/h, usualmente todos los equipos para mediciones tiene la opción de configurarse que haga las mediciones en base a tiempo o en base a distancia medida por el GPS, este es otro criterio importante que muchas veces no se toma en cuenta o no se considera a la hora de medir, aparte de que las mediciones estrictamente de vos no son iguales ni se deben hacer como se hacen las de datos  sean estos GPRS/EDGE o HSDPA/HSUPA, pero este es otro tema que abordaremos en otra entrega, finalizamos diciendo que las mediciones de drive test por ser la única forma de poder ver cuál es la experiencia del cliente final deberían ser hechas con mucho cuidado y usando todos los criterios técnicos adecuados a cada caso y el personal que las ejecuta debería no simplemente ser alguien que cargue o lleve una laptop en sus piernas y sepa iniciar y configurar el equipo sino alguien con suficiente preparación y conocimientos de RF para poder tener un criterio técnico muy acertado en valorar los resultados de las mediciones.


BONO

Plataformas de medición más conocidas o populares:
Nombre                           Fabricante o creador
TEMS                               Ericsson (Ahora pertenece a un fabricante llamado ASCOM)
Nitro                                Agilent Technologies (Ahora propiedad de JSDU)
ZK                                     ZK cell test
Probe/Genex                    Huawei
Nemo                                Anite

domingo, 9 de mayo de 2010

LOS ARRANQUES EN FALSO Y EL MERCADO DE TELECOMUNICACIONES EN COSTA RICA (II)

En el artículo anterior hablamos un poco sobre los problemas encontrados por los empresarios que han buscado operar dentro de costa rica o establecerse en el país legalmente para lograr un pedacito del tan ansiado mercado costarricense de telecomunicaciones. En esta entrega tocaremos el tema de los competidores y las expectativas de quienes serán los ganadores del premio mayor que es la venta de redes que harán los vendors que se adjudiquen dichos proyectos y también el atraso que ya lleva el evento de la apertura del mercado que según la opinión de muchos se debió al cambio de gobierno y a la ya conocida burocracia de las instituciones relacionadas con el proceso, ahora que ya se dio la toma de posesión de la nueva presidenta esperemos que las cosas se agilicen y pronto se dé la señal de salida para los competidores principales que en esta caso será Americamovil con su marca CLARO, Telefónica con Movistar y posiblemente Digicel junto a otras empresas que ya existen en el país y que compartirán el mercado con lo que quede de la operadora estatal, el pueblo tico está a punto de experimentar ser bombardeado y a veces acosado por la agresiva publicidad que acostumbran desplegar las operadores de la región y a tener a su alcance toda suerte de terminales de última generación incluyendo los famosos y codiciados teléfonos inteligentes como son el famoso BlackBerry iPhone y otros similares.
Pero que hay respecto a los vendor y operadores que son los principales actores de este espectáculo esperado? Bueno de mas esta decir que dos de los principales Ericsson y Huawei han venido desde tiempo atrás coqueteando y correteando a los futuros operadores del país tico con miras a realizar un buen negocio en un mercado que se perfila como uno de los más atractivos que si bien es un país que cuenta con una población relativamente moderada para su extensión territorial, también poses records interesantes como ser uno de los 3 países con más alto consumo de minutos de llamada por habitante, lo cual es un excelente indicador para los futuros operadores además del hecho de que costa rica hasta antes de la crisis era uno de los países de Centroamérica con mejores indicadores económicos superado solamente por panamá que es el abanderado en cuestiones de crecimiento e ingresos para la población.


En cuanto a quienes serán los operadores de la región pues podemos decir que son los habituales rivales a nivel global Americamovil de ya famoso y oficialmente reconocido hombre más rico del mundo que ha llegado incluso a desbancar a Bill Gates, y que en general su fortuna proviene casi en su mayoría de sus empresas de telecomunicaciones y la española Telefónica que en general ha mantenido sus números de ganancias y crecimiento a nivel global y que tiene presencia en muchos de los países de Latinoamérica y finalmente Digicel de origen europeo y que también es una de las empresas quemas crecimiento en cuanto a presencia en Latinoamérica ha tenido en años recientes, contando con su base central de operaciones y dirección en Jamaica. Estos tres competidores tiene frente a si a dos de los ms acérrimos rivales hoy en día en cuanto a vendors se refiere Ericsson y huawei, ambos tiene presencia en toda américa y han logrado el uno mantenerse vigente como un vendor fuerte y el otro como uno con una alta tasa de crecimiento y penetración en los países de la región y también en el mundo huawei se podría decir que crece a pasos agigantados siendo su principal bastión México y su principal arma sus bajos precios respecto a su principal competidor, en cuanto a funcionalidad y fiabilidad ambos venden redes funcionales y que dan lo que ofrecen y quizá las diferencia aparte de sus precios podría ir encaminada en cuanto al servicio y soporte pre y postventa según lo que se escucha decir de quienes ya compraron sus equipos. Aparte de estos dos vendors también en costa rica existe el ya conocido fabricante europeo y ahora con nuevo nombre ALCATEL que ahora se llama Alcatel-Lucent, costa rica siempre ha sido uno de los bastiones de ALCATEL y posiblemente podrían lograr algún protagonismo dentro de todo este asunto de la apertura del mercado. En cuanto a NOKIA-SIEMENS no se espera mucho de ellos que aunque si bien existen redes de ellos en Suramérica en Centroamérica no han tenido mayor éxito ni presencia.
A continuación les dejo un resumen de los mejores tópicos encontrados en una reciente búsqueda e investigación que realice sobre el tema y que espero les brinde información de calidad y de mucho interés a los amables lectores, también les presento un cuadro sobre los futuros operadores del costa rica.

Las multinacionales que se disputan este mercado ya tienen avanzadas las gestiones para incursionar en el mercado. Desde hace algunos años atrás las compañías se han venido preparando para el momento en que los diputados aprobaran la legislación que permita la competencia en telefonía celular e Internet. Incluso hay algunas compañías que van aventajadas pues ya tienen registradas sus marcas y logotipos y cuentan con estudios preliminares sobre el comportamiento del mercado costarricense, con la finalidad de ser las primeras en ofrecer sus servicios a los ticos. Y es que aunque la población de Costa Rica no es muy numerosa, cuenta con algunos atractivos que cautivan a las compañías de telecomunicaciones más grandes del mundo.
Uno de esos encantos es el hecho de que el país es la tercera población a nivel mundial que más minutos habla por teléfono, después de Japón y Estados Unidos.
Otro elemento que llama la atención de las firmas extranjeras tiene que ver con que existe en el país una serie de servicios con gran demanda en Latinoamérica que el Instituto Costarricense de Electricidad (ICE) aún no los ofrece. Uno de esos nichos descubiertos es la telefonía prepago; que consiste en una tarjeta telefónica —similar a la Colibrí— que cuenta con un monto de dinero determinado para hablar por teléfono y que es muy empleada por turistas o por padres de familia que quieren limitar el gasto en llamadas de sus hijos.
Asimismo, el hecho de que el mercado nacional sea el único en Centroamérica en que el Estado mantiene el monopolio en la prestación de los servicios de telefonía móvil e Internet termina de atraer la atención de las multinacionales. Esos elementos han seducido a por lo menos cinco empresas, que han mostrado algún interés por tratar de llevarse una parte de los usuarios de telecomunicaciones.


En una entrevista, Marco Antonio Slim, hijo del magnate mexicano, confirmó que el mercado costarricense les resulta interesante.
Por su parte, la compañía Telefónica no se ha quedado atrás y siguió los pasos de su principal rival en Latinoamérica y procedió también a gestionar la inscripción de sus marcas en el país, en abril de 2006.
Además en una reproducción de la Gaceta de los Negocios de España, la revista Forbes publicó que “Telefónica está pendiente de la inminente apertura de las telecomunicaciones para introducirse al país”. Otra multinacional que han mirado el mercado costarricense es AT&T .
“La compañía no le pierde la mirada a Costa Rica a la espera del momento en que el Gobierno decida abrir las telecomunicaciones”, dijo David Hall, CEO de Digicel.
Por su parte, Xu Yingzhen, subdirectora para América del Ministerio de Comercio Exterior de China, anunció que empresas de telecomunicaciones que operan en el gigante asiático “han explorado sus posibilidades en Costa Rica”. “La apertura en Costa Rica va a ofrecer buenas oportunidades a empresas chinas”, comentó la funcionaria durante la visita realizada por el presidente Oscar Arias a China en octubre, luego del establecimiento de relaciones diplomáticas entre ambos países. Durante la visita del gobernante costarricense, la compañía que más entusiasmo mostró fue Huawei, la cual tiene un porcentaje de capital estatal.