Telecomunicaciones
Introducción
Es un dispositivo que utiliza señales eléctricas para la transmisión de mensajes de texto codificados, mediante líneas alámbricas o señales de radio. El telégrafo eléctrico, o más comúnmente telégrafo, reemplazó a los sistemas de transmisión de señales ópticas de semáforos, como los diseñados por Claude Chappe para el ejército francés, y Friedrich Clemens Gerke para el ejército prusiano, convirtiéndose así en la primera forma de comunicación eléctrica.
Consiste en un dígito binario que indica si el número de bits con un valor de 1 en un conjunto de bits es par o impar. Estos bits conforman el método de detección de errores más simple.
Este método detecta errores, pero no los corrige. Existen dos variantes, bit de paridad par y bit de paridad impar.
Enviar y recibir datos de cualquier tipo.
Compartir recursos. No todos los usuarios de un sistema informático pueden disponer de uno adecuado a sus necesidades.
Compartir carga. Consiste en distribuir el trabajo que supone el proceso de datos entre varios equipos.
Historia de la telefonía
Telefonía móvil celular
Compañía de investigación y desarrollo estadounidense fundada en 1925, que desarrolla equipos de telecomunicaciones y realiza investigaciones en el campo de la defensa.
Esta compañía fue parte de AT&T, y pertenece actualmente a Lucent Technologies Inc. (Adquirida por Nokia), la cual a su vez se escindió de AT&T en 1996. Los Laboratorios Bell han producido miles de invenciones, como por ejemplo el primer sistema de película de sonido sincrónico, el ordenador digital a base de relés, el láser, la celda solar, UNIX, y los lenguajes de programación C y C++. Varios de los investigadores de Bell han ganado el Premio Nobel: Clinton Davisson, por haber demostrado la naturaleza ondulatoria de la materia; John Bardeen, Walter H. Brattain, y William B. Shockley, por inventar el transistor; y Arno Penzias y Robert W. Wilson, por descubrir la radiación cósmica de fondo en longitudes de microondas. Actualmente los Laboratorios Bell operan en 20 países.
Propósito de 4G. Representa la tecnología comercializada con las tasas más rápidas de transmisión de datos, disponible en una red inalámbrica. Puede proporcionar velocidades de transmisión de datos entre los 100 Mbps y un Gbps. En comparación, las redes de tercera generación que ofrecen velocidades de transmisión de datos promedio de alrededor de 200 kbps, que es significativamente más lenta que la disponible con la tecnología 4G. Estas conexiones de red también pueden ser más precisas en movimiento, cuando las ubicaciones de los usuarios y las torres de las antenas operan a una tasa de cambio constante. Por ejemplo, cuando un usuario se desplaza en un coche, 4G funciona más eficazmente que las tecnologías anteriores. Esta conexión más rápida, más precisa puede permitir la transmisión de paquetes de datos más grandes que las redes 3G. Los usuarios pueden acceder a las aplicaciones que cada vez son más "pesados", tales como señales de televisión de alta definición (HD) y de videochat en tiempo real.
Dispositivos con 4G. El servicio de telefonía 4G puede utilizar módems, teléfonos móviles y otros dispositivos como ordenadores portátiles. Los hotspots móviles ofrecen conexiones inalámbricas para múltiples dispositivos, incluyendo ordenadores, tabletas, y consolas de juegos portátiles, con esta tecnología, los usuarios puedan descargar y utilizar aplicaciones de gran tamaño en cada dispositivo al mismo tiempo. Un netbook o una tableta podrían funcionar de forma similar a un ordenador portátil, pero con menor memoria, pues 4G ofrece acceso instantáneo a internet y las comunicaciones web son en tiempo real.
Polémica por la norma. Los desarrolladores han establecido ciertas normas para las capacidades de alto rendimiento de la tecnología 4G, de conformidad con las dictadas por la Unión Internacional de Comunicaciones - Radio (UIT-R). Mientras que las empresas a principios de este siglo aún no habían alcanzado los estándares necesarios para la tecnología 4G, algunos empezaron a usar "4G" para describir sus redes. Esto fue mal visto inicialmente, pero en última instancia se permitió siempre y cuando la tecnología utilizada allanara el camino para un verdadero rendimiento 4G. Nuevos sistemas como WiMax móvil y Long Term Evolution (LTE) se conocen como "4G", aunque no lleguen a los puntos de referencia de rendimiento que figuran en las normas del UIT-R.
Aquella onda o partícula que no es capaz de arrancar electrones de la materia a la que se dirige produciendo, como mucho, excitaciones electrónicas. Ciñéndose a la radiación electromagnética, la capacidad de arrancar electrones (ionizar átomos o moléculas) vendrá dada, en el caso lineal, por la frecuencia de la radiación, que determina la energía por fotón, y en el caso no-lineal también por la energía por unidad de superficie de dicha radiación; en este caso se habla de ionización no lineal.
Así, atendiendo a la frecuencia de la radiación serán radiaciones no ionizantes las frecuencias comprendidas entre las frecuencias bajas o radio frecuencias y el ultravioleta aproximadamente, a partir del cual (rayos X y rayos gamma) se habla de radiación ionizante. En el caso particular de radiaciones no ionizantes por su frecuencia, pero extremadamente intensas (únicamente los láseres intensos) aparece el fenómeno de la ionización no lineal siendo, por tanto, también ionizantes.
Este capítulo es adecuado para quienes no poseen conocimientos en telecomunicaciones, por lo que no presenta un tratamiento exhaustivo, aunque aporta una base general sobre los conceptos y tecnologías habituales.Durante el siglo XX se desarrollaron una variedad de sistemas de comunicaciones, hasta alcanzar la situación actual en la que rodean la Tierra y se extienden por el espacio. Radio, televisión, teléfono e internet, permiten que las personas estén en contacto, independientemente de las distancias.Aunque los primeros sistemas de comunicación, como el, utilizaban un código digital ( código Morse ) los desarrollos posteriores, usados en las redes de comunicación en el siglo pasado se dirigieron hacia la transmisión de forma analógica. Con la amplia difusión de los ordenadores digitales, la situación cambió, y actualmente la información se transmite digitalizada. La combinación de ordenadores y redes de comunicaciones (TIC) es una de las principales áreas de desarrollo, teniendo un impacto profundo en el estilo de vida de millones de personas, tal como en su época lo tuvieron la radio y el teléfono.Un proceso de comunicación está constituido por unque envíaa través de unde transmisión, que es recibida por un. Por lo que se puede hablar de comunicación oral, escrita, etc., donde el canal será respectivamente el aire, el papel, etc. La información no es transmitida tal como la emitimos que suele ser de forma analógica, sino que se utilizan unoscomprensibles por el emisor y el receptor, que se comunican mediantefísicas. Los códigos serán el lenguaje utilizado y las señales son las las ondas electromagnéticas, sonoras, luminosas, etc. La utilización de códigos y señales precisa que la información seaen la transmisión yen la recepción.En un proceso de comunicación es imprescindible que la información que se envía sea idéntica a la recibida. Si falla cualquiera de los elementos que intervienen, se producen pérdidas de información; con el objetivo de evitarlo, se repiten los mensajes en su totalidad o en parte (redundancia), o se acompañan de códigos especiales (de control) como por ejemplo el bit de paridad, que permitan reconstruirla en caso de error. La comunicación suele ser en ambos sentidos, ya sea alternativa o simultáneamente, convirtiéndose en este caso el transmisor en receptor y viceversa. Lo dicho de una forma general se puede extrapolar a la informática con la intervención de diferentes máquinas que comunican la información a diversos tipos de receptores.Las principales razones de las comunicaciones en informática son:El benedictino Dom Gauthey, en 1680 propuso en la Academia de Ciencias de París (Francia), un sistema de transmisión de voz mediante tubos acústicos. En 1860 el alemán Phillipp Reis (1834-1874) inventó un aparato que denominó "Teléfono" (del griego "hablar a lo lejos") con el que logró transmitir sonidos durante breves instantes.En 1796, Francisco Salva estableció un sistema de comunicación telegráfica entre Madrid y Aranjuez. Tenía 44 cables que permitían la transmisión de 22 símbolos. Las señales se generaban mediante máquinas electrostáticas. No llegó a comercializarse debido a problemas técnicos.El 14 de Febrero de 1876, el estadounidense de origen irlandés, Alexander Graham Bell (1847-1922) presentó una solicitud de patente de un teléfono, dos horas antes de que lo hiciera Elisha Gray (1835-1901) con un dispositivo similar. La realidad es que el teléfono fue inventado por el italiano Antonio Meucci (1808-1889), pero no dispuso de medios para su comercialización.Reis (1834-1874) inició su carrera profesional en una sociedad dedicada a la fabricación de colorantes. De formación autodidacta, tanto en el campo de la ciencia como en el de la física en particular, llevó a cabo diversos trabajos experimentales que le condujeron a la conversión de oscilaciones acústicas en impulsos eléctricos. A la edad de 19 años inició sus estudios de matemáticas y física, a la vez que desarrollaba sus trabajos. Más tarde ejerció como preceptor en Friedrichsdorf, donde desarrolló un aparato gracias al cual no sólo fue capaz de transformar las ondas electromagnéticas en sonoras sino que también permitía transmitirlas hasta distancias de 100 m en forma de señales eléctricas. Bautizó su invento con el nombre de teléfono, en 1861 lo presentó ante la Sociedad Física de Frankfurt y en 1864 en la Universidad de Giessen. Sin embargo, su invención no despertó ningún interés.El teléfono se basa en el principio de que una corriente eléctrica continua puede variarse mediante una resistencia, en función de las ondas acústicas que reciba (micrófono) lo que a su vez da lugar a la producción de las mismas en el receptor (un electroimán con una lámina fina). Fueron muchos los intentos de lograr un micrófono eficaz, en 1878 Henry Hunnings (1858–1935) patentó un dispositivo que consistía en una cavidad parcialmente rellena de carbón que cerraba el circuito eléctrico, cuya resistencia y por tanto la intensidad que circula por el mismo es proporcional a la presión de las ondas sonoras, actualmente aún se sigue utilizando. Es de destacar que Tomas A. Edison (1847-1931) también contribuyó con inventos al desarrollo del teléfono, en 1892 fundó, la conocida empresa de tecnología.Otros elementos básicos del teléfono primitivo son el timbre o campanilla y el marcador. El primero es un electroimán doble, con una armadura pivotante que soporta a un martillo que al vibrar golpea a una campana, fue descubierto por T. Watson, el dial se inventó en el año 1896, por unos asociados de Strowger. Los primeros teléfonos incluían su propia batería eléctrica, pero en 1894 se impuso la batería central con un voltaje de 48 V. Al descolgar el auricular se produce el cierre del circuito y pasa por él una corriente continua, indicando que se requiere servicio.En España se implantó el teléfono en 1877 en Barcelona, traídos desde Cuba, donde se importaban de EE.UU.. En 1884 el estado español se hizo cargo del monopolio, en 1924 se creó la Compañía Telefónica Nacional de España, actualmente privatizada y denominada Telefónica , que opera en muchos países bajo la marca comercial Movistar.En las primeras centrales telefónicas las conexiones entre usuarios se efectuaban directamente por los operarios de la central, lo cual era muy limitado, al crecer el número de abonados la cantidad de conexiones era inmanejable. En 1889 Almon B. Strowger, un enterrador de la ciudad de Kansas (EE.UU.), al creer que las llamadas requiriendo sus servicios eran desviadas hacia la competencia, por parte de los operadores, inventó un sistema automático para la selección del destinatario. Este principio se utilizó durante muchos años, hasta la aparición de las centrales basadas en electrónica digital, como el sistema Ibercom implantado en España por Telefónica en 1985.Algunas empresas de telefonía ofrecen servicios de voz a través de internet, por ejemplo la telefonía en la universidad de Murcia, es lo que se denomina (voz a través de IP). Las tarifas son muy baratas, aunque en algunas la calidad no suele estar al nivel de las líneas convencionales de telefonía. Este tipo de servicios están regulados en España, a él pertenecen los números de teléfonos que empiezan por 7.La evolución de las telecomunicaciones tiende a dotar a los usuarios de movilidad, de forma que puedan comunicarse desde cualquier lugar. Ello es posible mediante el empleo de las ondas de radio para establecer enlaces entre los elementos a comunicar. A continuación se describe el concepto celular por ser la base de los sistemas más difundidos.Los sistemas celulares fueron creados en los laboratorios Bellhace más de cincuenta años. Un sistema celular se forma al dividir el territorio en áreas pequeñas o celdas hexagonales, de diversos tamaños, cada una de las cuales está atendida por una estación de radio (antena). A su vez las celdas se agrupan en clusters o racimos, de forma que el espectro de frecuencias se pueda utilizar en cada celda nueva, teniendo cuidado de evitar las interferencias. Las estructuras que permiten, de forma ininterrumpida, la cobertura de una zona determinada son configuraciones a modo de panal de abejas basadas en 4, 7, 12 o 21 celdas. El número total de canales por celda se obtiene por la fórmula siguiente, N=(Nº total de canales)/(cluster (4, 7, 12, 21)). Al ser menor el tamaño de las celdas mayor será el número de canales que soporte el sistema.La primera generación de tecnología inalámbrica se difundió en la década de 1980, conocida como 1G, y empleaba tecnología analógica, la 2G, que se implantó en la década de 1990, cambió la señal analógica a digital y permitió el envío de mensajes de texto. La tecnología 3G es la más difundida, fue introducida en la década de 2000, permite transmitir una señal de banda ancha inalámbrica, lo que hace posible que los usuarios accedan a internet. La tecnología 4G, actualiza aún más estas redes con mejores tiempos de transferencia de información, incremento de seguridad, y mayores capacidades de intercambio de información. Ya se está desarrollando la quinta generación, 5G, que es posible que se implante en el año 2020. Según Intel, esta última generación puede acabar con el wifi gratuito. Predice que se logrará una solución 5G sin fisuras, que incorpore la inteligencia distribuida en todos los ámbitos: desde el teléfono inteligente al enrutador, de la estación base a la nube, y hasta los superordenadores más rápidos. La conclusión es que los teléfonos móviles celulares y wifi, deberán integrarse sin problemas desde el punto de vista del usuario final, según A. Evans, responsable de alto nivel de Intel. "". Actualmente se está probando por Nokia junto al Gobierno alemán, esta tecnología en la nueva autopista A9 en Baviera (Alemania), para la comunicación entre coches.Vídeos con ejemplos reales de uso de Internte de las cosas:GSM (Groupe Spécial Mobile), surgió del intento europeo de unificar en uno los 10 sistemas diferentes existentes, el CEPT (año 1982). La principal ventaja de este sistema es que permite realizar o recibir llamadas en cualquier país europeo, aún estando en tránsito por ellos, el teléfono se registra automáticamente en la siguiente red GSM al cambiar de un país a otro, quedando disponible para su utilización. Al ser criptografiadas las conversaciones, presenta más seguridad frente a escuchas (aunque se ha logrado desencriptar). Otras ventajas son: menor consumo de energía, celdas más pequeñas y la utilización del espectro de forma más eficiente.La existencia de competencia por parte de otras operadoras, Vodafone Orange (inicialmente Amena, marca renacida en la actualidad) y Yoigo (adquirida por Másmóvil), aparte de las "operadores móviles virtuales" (OMV) como Dia , Ono (adquirida por Vodafone), Lebara y EroskiMovil, entre otras muchas, ha dado lugar a que las tarifas hayan bajado bastante.Respecto a la tecnología UMTS (3G), en España la ofrecen todas las operadoras. El siguiente enlace es al Libro Blanco sobre UMTS. A la red GSM se le añadieron otras funcionalidades, antes de la implantación completa de UMTS. Tecnologías como HSCSD, GPRS y EDGE:(High Speed Circuit Switched Data) se basa en circuitos conmutados de alta velocidad, proporciona una velocidad de bajada de 58 kbit/s. Permite acceder a varios servicios simultáneamente. Es parecida a la RDSI usada en los principios de internet en España, como servicio de altas prestaciones.(General Packet Radio Service) puede llegar a velocidades de 115 kbit/s. Al contrario que HSCSD que para su implantación requiere únicamente de actualización software, GPRS necesita de un hardware específico para el enrutamiento a través de una red de datos.(Enhaced Data rates for GSM Evolution) nos acerca a las capacidades que otorga 3G en la comunicación. En combinación con GPRS puede alcanzar velocidades de 384 kbit/sLas empresas de desarrollo y creadoras de contenidos se volcaron en el desarrollo de aplicaciones WAP (páginas web accesibles desde la red celular) aunque la expansión fue mucho menor de la esperada, posiblemente por las tarifas tan elevadas de la telefonía móvil. Además que la aparición de teléfonos GPRS y UMTS ha restó muchos usuarios a WAP.WAP acercó en sus comienzos a los usuarios a la utilización de servicios de internet, el posicionamiento en esta tecnología ayudó al éxito en el desarrollo de proyectos UMTS. Por lo tanto no hay que ver únicamente a WAP como una tecnología de pasarela a UMTS sino que además es una introducción de todas las partes (usuarios, operadoras, empresas, etc..) a servicios móviles en redes.Posteriormente al UMTS se implantó la tecnología HSDPA (High Speed Downlink Packet Access) es la optimización de la tecnología espectral UMTS/WCDMA, incluida en las especificaciones de 3GPP 5 y consiste en un nuevo canal compartido en el enlace descendente que mejora significativamente la capacidad máxima de transferencia de información hasta alcanzar tasas de 14 Mbps. Soporta tasas de throughput promedio cercanas a 1 Mbps. Es la evolución de la tercera generación (3G) de tecnología móvil, llamada 3.5G, y se considera el paso previo antes de la novedosa cuarta generación (4G o LTE que son competidoras de WIMAX), la futura integración de redes, ya disponible en las principales ciudades de España través de las operadoras más importantes.Es la cuarta generación de la tecnología inalámbrica disponible en los proveedores de servicios móviles. Esta tecnología, también a veces llamada "banda móvil ultra ancha", está diseñada para proporcionar mayor velocidad de transferencia de datos y conexiones más seguras. Varios dispositivos inalámbricos pueden tomar ventaja de la tecnología 4G, principalmente los teléfonos y tabletas.La gran difusión de los teléfonos móviles, dio lugar a innovaciones, por ejemplo, mediante un conjunto de chips se puede convertir un móvil en un control remoto universal y se han comercializado móviles con esta capacidad. Y otras dirigidas al mundo multimedia, actualmente son habituales los teléfonos con sistema de posicionamiento global (GPS), cámara fotográfica y prestaciones musicales avanzadas. Incluso hay teléfonos con sistemas de almacenamiento masivo tipo SSD, que además incluyen transmisor de radio FM, salida de televisión, altavoces duales y pantalla de cristal líquido. Han surgido diversas tecnologías para efectuar pagos mediante el teléfono móvil, aunque algunas han fracasado y otras se están implantando muy lentamente.Al concluir en muchos países las emisiones de televisión analógica, se liberó una banda del espectro electromagnético, que se puede dedicar a la telefonía móvil celular, principalmente para facilitar los accesos a internet. Por ejemplo, ha quedado libre la banda de los 700 MHz, que se ha dedicado a la nueva tecnología de comunicaciones móviles, LTE (cuarta generación o 4G), que su amplia difusión será el siguiente paso en la mayoría de operadores de telefonía, adaptada por empresas como Teléfonica, Vodafone, Orange, T-Mobile, AT&T, Verizon, NTT Docomo.... También puede suponer un cambio importante en la electrónica de la telefonía móvil celular, al implantarse bajo semiconductores de arseniuro de galio (AsGa).En telecomunicaciones, 5G es la sigla utilizada para referirse a la quinta generación de tecnologías de telefonía móvil. Es la sucesora de la tecnología 4G. Se encuentra sin estandarizar y las empresas de telecomunicación están desarrollando sus prototipos. Sus características más destacadas son:- Banda ancha móvil de muy alta velocidad y capacidad, velocidades de datos de 100 Mb/s para miles de usuarios en movilidad con picos de 1Gb/s, mientras que en conexiones interiores soportará varias conexiones simultáneas de 1Gb/s, velocidad superior a 10Gb/s y picos de 20Gb/s.- Comunicaciones ultra fiables y de baja latencia. Presentará retardos de red muy bajas, 1 ms frente a 20-30 ms que presenta las redes 4G. Esta característica es ideal para entornos productivos industriales.- Internet de las cosas (IoT). Permitirá el despliegue masivo de sensores mediante conexión inalámbrica 5G.Respecto a la alarma creada por grupos ecologistas (no ecólogos), sin ningún fundamento científico, sobre la radiación dañina y supuestamente productora de cáncer, no hay ninguna evidencia científica que la soporte, y así ha sido reconocido por la Organización Mundial de la Salud (OMS). Esta radiación es no ionizante, por lo tanto no puede romper los enlaces químicos del ADN. En los siguientes enlaces se tiene información seria:Joseba Zubia, físico de la UPV, habla de Ondas electromagnéticas y salud.
Ondas electromagnéticas y salud from Luis Alfonso Gámez en Vimeo.
WIMAX
El término de última milla se comenzó a utilizar en telefonía para referirse a la conexión entre el abonado y la central telefónica. A esta conexión también se la conoce como bucle de abonado. Todas las conexiones entre los abonados y las centrales forman la llamada red de acceso. Mientras que las conexiones entre las diferentes centrales de diferente jerarquía forman lo que se conoce como red de transporte. Estos términos se pueden aplicar de igual manera a las redes telemáticas actuales.
WiMAX fijo hará referencia a la tecnología que se adhiere a la norma 802.16-2004.
WiMAX móvil hará referencia a la tecnología que se adhiere a la norma 802.16e-2005.
WiMAX se referirá a una aplicación inalámbrica de "última milla" con independencia de la norma.
Sistema de posicionamiento global
1. Los satélites son puntos de referencia. Sus posiciones en el espacio se conocen con mucha precisión, constituyendo la base de los cálculos GPS.
2. El tiempo de viaje de la señal proporciona la distancia (v=x/t). Mediante una serie de mensajes codificados, un receptor en tierra determina el momento en que la marca de tiempo partió del satélite, así como el momento de llegada al receptor; la diferencia es el tiempo de viaje de cada señal. La distancia es el producto del tiempo por la velocidad de la luz. En este proceso es donde hay errores, aunque se considera en los cálculos la teoría de la relatividad de Einstein, tanto la general como la especial. De manera humorística se trata el asunto de la relatividad en el post del profesor de física de la Universidad de Granada Aurturo Quirantes, titulado "
3. Tres distancias fijan la posición. Esta medición restringe el lugar del universo en que puede encontrarse el receptor. Indica que ha de estar en algún lugar de una superficie esférica imaginaria, centrada en ese satélite y con un radio de 23000 km. Si por ejemplo el receptor se encuentra a 26000 km de un segundo satélite, eso restringe aún más el lugar, a la intersección entre dos esferas, que es una circunferencia. Una tercera medición, añade otra esfera, que intercepta el círculo determinado por las otras dos. La intersección ocurre en dos puntos, y así con tres mediciones, el receptor restringe su posición a sólo dos puntos en todo el universo. Una cuarta medición seleccionaría uno de estos dos puntos, pero no es necesario, pues de los dos puntos del paso anterior, uno está a miles de km de la Tierra, por lo que no tiene sentido. Aunque a veces es realizada esta cuarta medición, para proporcionar una forma de asegurar que el reloj del receptor está sincronizado con la hora universal. 1. Los satélites son puntos de referencia. Sus posiciones en el espacio se conocen con mucha precisión, constituyendo la base de los cálculos GPS.2. El tiempo de viaje de la señal proporciona la distancia (v=x/t). Mediante una serie de mensajes codificados, un receptor en tierra determina el momento en que la marca de tiempo partió del satélite, así como el momento de llegada al receptor; la diferencia es el tiempo de viaje de cada señal. La distancia es el producto del tiempo por la velocidad de la luz. En este proceso es donde hay errores, aunque se considera en los cálculos la teoría de la relatividad de Einstein, tanto la general como la especial. De manera humorística se trata el asunto de la relatividad en eldel profesor de física de la Universidad de Granada Aurturo Quirantes, titulado " Tetas en el espacio ". Los dos efectos relativistas son de signo opuesto . La relatividad especial ralentiza el reloj en órbita, al tiempo que la relatividad general lo acelera. El resultado neto dependerá de la distancia a la Tierra. La Estación Espacial Internacional, en órbita baja, está dominada por la Relatividad Especial y la gente envejece más despacio que en la Tierra; la región de los satélites en órbita geoestacionaria, a 36000 km de la superficie, es dominio de la Relatividad General. En algún lugar intermedio hay una órbita donde ambos efectos se cancelan, esa órbita se encuentra a 3185 km de la superficie terrestre. El siguiente vídeo explica de forma sencilla la relatividad especial.3. Tres distancias fijan la posición. Esta medición restringe el lugar del universo en que puede encontrarse el receptor. Indica que ha de estar en algún lugar de una superficie esférica imaginaria, centrada en ese satélite y con un radio de 23000 km. Si por ejemplo el receptor se encuentra a 26000 km de un segundo satélite, eso restringe aún más el lugar, a la intersección entre dos esferas, que es una circunferencia. Una tercera medición, añade otra esfera, que intercepta el círculo determinado por las otras dos. La intersección ocurre en dos puntos, y así con tres mediciones, el receptor restringe su posición a sólo dos puntos en todo el universo. Una cuarta medición seleccionaría uno de estos dos puntos, pero no es necesario, pues de los dos puntos del paso anterior, uno está a miles de km de la Tierra, por lo que no tiene sentido. Aunque a veces es realizada esta cuarta medición, para proporcionar una forma de asegurar que el reloj del receptor está sincronizado con la hora universal.
Errores de los satélites. Los satélites llevan relojes atómicos muy precisos, pero no perfectos. La posición de los satélites en el espacio es también importante, estos se ubican en órbitas altas, por lo que están relativamente libres de los efectos perturbadores de la capa superior de la atmósfera terrestre, pero aún así se desvían ligeramente de las órbitas establecidas.
Atmósfera. La información se transmite por señales de radio y es otra fuente de error. La física puede llevarnos a creer que las señales viajan a la velocidad de la luz, que es constante, pero eso sucede en el vacío. Las ondas disminuyen su velocidad en función del medio en que se propagan, conforme una señal GPS pasa a través de las partículas cargadas de la ionosfera y luego a través del vapor de agua de la troposfera, se retrasa, lo cual implica un valor erróneo de la distancia del satélite.
Error multisenda. Cuando la señal GPS llega a la Tierra se puede reflejar en elementos locales antes de llegar al receptor. La señal alcanza la antena por múltiples sendas, primero recibe la señal directa y posteriormente llegan las desplazadas, produciendo ruido. Un ejemplo es en la TV cuando se ven imágenes múltiples solapadas.
Error del receptor. Los receptores tampoco son perfectos y pueden introducir sus propios errores, que surgen de sus relojes o de ruido interno.
Disponibilidad selectiva. Mucho peor es que hasta hace unos años a las fuentes naturales de error se sumaba el que aportaba intencionadamente el Departamento de Defensa de EE.UU., con la finalidad de asegurarse de que ninguna fuerza hostil utiliza la posición de GPS contra los EE.UU. Se puede introducir ruido en los relojes de los satélites, lo cual reduce su precisión, aunque también pueden dar datos orbitales erróneos. Los receptores militares disponen de una clave que desencripta los errores introducidos para así eliminarlos. De esta forma se pueden llegar a precisiones de 15 m.
El DGPS obtiene mejores precisiones que las conseguidas con las codificadas para usos militares y también proporciona una forma de verificar la fiabilidad de las mediciones momento a momento.
Magnitud típica de los errores (m) Precisión por satélite GPS DGPS Relojes de satélites 1.5 0 Errores de órbitas 2.5 0 Ionosfera 5 0.4 Troposfera 0.5 0.2 Ruido receptor 0 0.3 Multisenda 0 0.6 Dep. Defensa 0 0
Precisión de posición GPS DGPS Horizontal 50 1.3 Vertical 78 2 3D 93 2.8
Aplicaciones de DGPS y GPS
Servicio de guardacostas. El Servicio de Guardacostas de EE.UU. es el responsable de proporcionar todas las ayudas de navegación. Por ejemplo el huracán BOB que azotó la costa este de EE.UU. destrozó o desplazó un gran número de boyas. La situación era peligrosa, pues los barcos iban a puerto confiados en unas boyas que ya no existían o estaban cambiadas de sitio. El Servicio de Guardacostas equipó uno de sus barcos de mantenimiento de boyas con un receptor DGPS y reposicionaron las boyas de nuevo, en tan solo unos días.
Aviación. Algunos experimentos realizados por la NASA y por la aviación de EE.UU. contribuyeron al aterrizaje de helicópteros y aviones de pasajeros mediante DGPS como único sistema guía, sin las radiobalizas tradicionales. En la actualidad los sistemas de aterrizaje con poca visibilidad son tan caros que sólo están disponibles en los mayores aeropuertos. El DGPS es tan barato que lo puede instalar cualquier aeropuerto y la mejora de seguridad de vuelo es tremenda. Como referencia se puede citar Canadá, donde el sistema GPS ha sustituido al habitual, conocido como Omega.
Gestión de los recursos naturales. La gestión del uso y protección de los bosques es una gran tarea. Su estudio topográfico es difícil, sin embargo hay que medir constantemente parcelas de árboles, ya sea por asunto de su conservación o por ventas a empresas madereras. El Servicio Forestal de EE.UU. ha sido uno de los pioneros del DGPS. Hacen medidas con GPS desde helicópteros. Otras aplicaciones son: topografía de galerías de minas, de superficies de pantanos y de zonas para pesca, control de incendios.
Exploración costera. Las empresas petrolíferas gastan mucho dinero en la exploración del fondo de los océanos en busca de lugares idóneos para perforar. El problema, es que una vez el barco encuentra un lugar de perforación, su tripulación necesita llevar a ese punto los dispositivos de perforación, lo cual no es fácil llegar al mismo sitio, al no haber posibilidad de poner marcas de referencia, y apartarse unos metros significa muchos millones de gasto. Para solucionar este problema usan el GPS. Otra utilidad es para mantener a los barcos en las rutas exactas y para el levantamiento topográfico de los puertos.
Gestión transporte y flotas. Con este sistema el controlador de una flota puede llevar la cuenta de cada vehículo, el resultado es una más estricta adhesión al horario y mejor supervisión. A las empresas de transporte (un ejemplo, los autobuses urbanos en Murcia), flotas de servicios y servicios de seguridad pública les gusta saber la posición de sus vehículos incluso al extremo de conocer el nombre de la calle. También se usa en los ferrocarriles.
Su empleo en coches ya es habitual, mediante dispositivos con pequeñas pantallas que mediante voz van indicando la ruta óptima. Incluso los teléfonos móviles tipo smartphone lo incorporan.
Agricultura.
El GPS está abriendo una nueva era de "agricultura de precisión". Un agricultor puede analizar las condiciones del suelo en cada parcela, y compilar un mapa de las demandas de fertilizante. Este mapa se digitaliza y se registra en ordenador. La máquina que adiciona los productos químicos al terreno, va con un GPS y su posición se correlaciona con los datos previamente digitalizados, añadiendo en cada punto la cantidad exacta de fertilizante. Se beneficia el agricultor con menos gasto y el medio ambiente evitando un exceso de productos químicos. También se puede aplicar a la fumigación aérea.
Transporte marítimo. En EE.UU. es obligatorio que los barcos petroleros lleven GPS por motivos de seguridad. Otras aplicaciones costeras son: la verificación de vaciados en barcazas, hasta la determinación de las zonas de pesca legal.
Seguridad pública. Para los servicios de bomberos y policía el tiempo de respuesta es muy importante. Con DGPS se pueden guiar los vehículos con gran precisión. Los planos de rutas centralizadas ofrecen a los controladores un mejor conocimiento de la forma en que están desplegados sus efectivos. El Servicio de Guardacostas de EE.UU. es el responsable de proporcionar todas las ayudas de navegación. Por ejemplo el huracán BOB que azotó la costa este de EE.UU. destrozó o desplazó un gran número de boyas. La situación era peligrosa, pues los barcos iban a puerto confiados en unas boyas que ya no existían o estaban cambiadas de sitio. El Servicio de Guardacostas equipó uno de sus barcos de mantenimiento de boyas con un receptor DGPS y reposicionaron las boyas de nuevo, en tan solo unos días.Algunos experimentos realizados por la NASA y por la aviación de EE.UU. contribuyeron al aterrizaje de helicópteros y aviones de pasajeros mediante DGPS como único sistema guía, sin las radiobalizas tradicionales. En la actualidad los sistemas de aterrizaje con poca visibilidad son tan caros que sólo están disponibles en los mayores aeropuertos. El DGPS es tan barato que lo puede instalar cualquier aeropuerto y la mejora de seguridad de vuelo es tremenda. Como referencia se puede citar Canadá, donde el sistema GPS ha sustituido al habitual, conocido como Omega.La gestión del uso y protección de los bosques es una gran tarea. Su estudio topográfico es difícil, sin embargo hay que medir constantemente parcelas de árboles, ya sea por asunto de su conservación o por ventas a empresas madereras. El Servicio Forestal de EE.UU. ha sido uno de los pioneros del DGPS. Hacen medidas con GPS desde helicópteros. Otras aplicaciones son: topografía de galerías de minas, de superficies de pantanos y de zonas para pesca, control de incendios.Las empresas petrolíferas gastan mucho dinero en la exploración del fondo de los océanos en busca de lugares idóneos para perforar. El problema, es que una vez el barco encuentra un lugar de perforación, su tripulación necesita llevar a ese punto los dispositivos de perforación, lo cual no es fácil llegar al mismo sitio, al no haber posibilidad de poner marcas de referencia, y apartarse unos metros significa muchos millones de gasto. Para solucionar este problema usan el GPS. Otra utilidad es para mantener a los barcos en las rutas exactas y para el levantamiento topográfico de los puertos.Con este sistema el controlador de una flota puede llevar la cuenta de cada vehículo, el resultado es una más estricta adhesión al horario y mejor supervisión. A las empresas de transporte (un ejemplo, los autobuses urbanos en Murcia), flotas de servicios y servicios de seguridad pública les gusta saber la posición de sus vehículos incluso al extremo de conocer el nombre de la calle. También se usa en los ferrocarriles.Su empleo en coches ya es habitual, mediante dispositivos con pequeñas pantallas que mediante voz van indicando la ruta óptima. Incluso los teléfonos móviles tipolo incorporan.El GPS está abriendo una nueva era de "agricultura de precisión". Un agricultor puede analizar las condiciones del suelo en cada parcela, y compilar un mapa de las demandas de fertilizante. Este mapa se digitaliza y se registra en ordenador. La máquina que adiciona los productos químicos al terreno, va con un GPS y su posición se correlaciona con los datos previamente digitalizados, añadiendo en cada punto la cantidad exacta de fertilizante. Se beneficia el agricultor con menos gasto y el medio ambiente evitando un exceso de productos químicos. También se puede aplicar a la fumigación aérea.En EE.UU. es obligatorio que los barcos petroleros lleven GPS por motivos de seguridad. Otras aplicaciones costeras son: la verificación de vaciados en barcazas, hasta la determinación de las zonas de pesca legal.Para los servicios de bomberos y policía el tiempo de respuesta es muy importante. Con DGPS se pueden guiar los vehículos con gran precisión. Los planos de rutas centralizadas ofrecen a los controladores un mejor conocimiento de la forma en que están desplegados sus efectivos.
El 19 de julio de 2007 la Unión Europea emitió un informe sobre radiación electromagnética por parte del comité de salud humana. Se puede acceder en:En la web de ARP SAPC, hay un estudio monográfico denominado Antenas y Salud:Por otra parte, Ferrán Tarrasa dio una estupenda conferencia denominada "Telefonía móvil, desmontando mitos". Se puede acceder a su presentación en:El informe Moulder es muy completo y también descarta los efectos nocivos sobre la salud. En la web EtilMercurio (Chile): ANTENAS DE CELULAR, RADIACIÓN Y CÁNCER: OTRA ONDA.(NFC) es una tecnología que puede dar lugar a un gran cambio en la industria, tanto a nivel tecnológico y económico. Muchas de las aplicaciones que usamos todos los días - como tarjetas de pago, llaves del coche, billetes, tarjeta del servicio de salud y tarjetas de acceso en habitación de hoteles - podrían dejar de existir, pues los teléfonos móviles con NFC pueden proporcionar estas funcionalidades. Al mismo tiempo, se generará una amplia gama de aplicaciones en el ámbito de la salud, la educación y el entretenimiento, por medio de "carteles inteligentes" que es el área de uso más común de la tecnología NFC. Emparejar dispositivos Bluetooth, intercambio de tarjetas de visita, hacer nuevos amigos en redes sociales y los juegos también son posibles implementaciones de esta tecnología. El fácil intercambio de datos entre dos dispositivos con NFC ofrece la posibilidad de intercambio seguro de información privada.NFC está diseñado en base a la sinergia de varias tecnologías, incluyendo comunicaciones inalámbricas, dispositivos móviles, aplicaciones móviles y las tecnologías de tarjetas inteligentes. NFC opera entre dos dispositivos en un rango de comunicación de corto alcance, requiere la aproximación de dos dispositivos a distancia de unos pocos centímetros. La comunicación se produce entre un dispositivo móvil NFC en un lado y una etiqueta NFC (una etiqueta RFID pasiva o), un lector de NFC, o un dispositivo móvil NFC en el otro lado; RFID es capaz de aceptar y transmitir más allá de unos pocos metros y tiene una amplia gama de usos. Sin embargo, NFC está restringido el uso en proximidad (hasta unos pocos centímetros) y también diseñado para la transferencia segura de datos, por lo que se usa para pagos mediante el teléfono.La integración de la tecnología NFC en los teléfonos móviles se considera una solución práctica, ya que casi todo el mundo lleva un teléfono. Los modernos la integran de serie y para los antiguos es muy fácil añadirla, algunos bancos para introducir este nuevo sistema de interés en los pagos, regalan la actualización del teléfono. Algunas cadenas de distribución ya han adaptado sus terminales punto de venta a pagos con móvil mediante NFC. En España el nuevo documento de identidad (DNI) también incorpora NFC.La tecnología Bluetooth se gestiona con unque se integra en los diferentes equipos que conforman el entorno inalámbrico, tales como ordenadores portátiles, periféricos (ratón, impresoras...), PDA o teléfonos móviles, así como el futuro, en el que se contemplan, además de estos equipos clásicos del ámbito de la comunicación y la informática, otros del ámbito de la domótica.El punto clave deles el transceptor, que ha de ser de tamaño muy pequeño (para poder integrarlo con facilidad) y de muy baja potencia. Otra parte deles el circuito integrado de radiofrecuencia, que tiene capacidad de autorregulación, lo que confiere un factor de ahorro de potencia, característica que es consustancial a las tecnologías inalámbricas en distancias cortas.El mecanismo de autorregulación funciona de la siguiente forma: cuando se detecta un receptor a una distancia corta el transmisor del circuito integrado es capaz de alterar la potencia de su propia señal para adaptarla al nivel adecuado, cuando se interrumpe la transmisión o disminuye el tráfico el sistema pasa a un estado de baja potencia. En este estado la verificación de conexión se realiza mediante una serie de señales cortas, es decir, se detectan, de forma periódica, los mensajes de búsqueda.Bluetooth utiliza spread spectrum, en concreto frequency hopping (salto de frecuencia). Estos sistemas de salto de frecuencia dividen la banda de frecuencia en varios canales de salto (). En el transcurso de una conexión se produce una transición brusca o salto de los transceptores de radio de un canal a otro de modo pseudoaleatorio. En sistemas FH, el ancho de banda instantáneo es relativamente reducido, si bien, hablando en términos generales, la dispersión o spread se obtiene a lo largo de la banda de frecuencias completa. Esto da lugar a transceptores de banda estrecha y de coste reducido que se pueden considerar óptimos en ley relativo a inmunidad frente a perturbaciones. Para soslayar este factor se dispone de programas de corrección de errores cuya misión es el restablecimiento de los bits de error.Los enlaces en la capa de banda base de la pila de protocolos en Bluetooth, es decir, los posibles enlaces físicos son SC (Synchronous Connection Oriented) para voz y ACL (Asynchronous Connectionless Link) para paquetes de datos. Los paquetes ACL se utilizan únicamente para información en forma de datos, mientras que SCO utiliza paquetes que contiene solamente audio o bien una combinación de audio y datos. Los paquetes en Bluetooth son de formato fijo: contienen un campo de código de acceso con el que se identifica el paquete, una cabecera dedicada a información de control y un campo de carga alternativo.La codificación de voz se realiza mediante la técnica de modulación CVSD (Continuosly Variable Slope Delta) o modulación continua de inclinación delta, con lo que se consigue un buen nivel de inmunidad a errores de hit, que aparecen como un ruido de fondo. Los mecanismos de seguridad consisten en esquemas de autenticación (el proceso de probar la identidad de un cliente/usuario) basados en un mecanismo de exigencia-respuesta y de encriptación basada en cifrado al nivel básico.Bluetooth funciona en una topología de varias picorredes (redes de corto alcance) con las que se pueden obtener conexiones punto a punto y punto a multipunto. De momento, se ha conseguido crear y enlazar de formahasta 10 picorredes, donde todos los equipos que se encuentran en una misma picorred aparecen sincronizados.El concepto de picorred es clave en Bluetooth: se define como la red formada por dos o más unidades o equipos que comparten un canal. Una unidad controla el tráfico y las otras funcionan como elementos subordinados. Las picorredes pueden, a su vez, enlazarse siguiendo una arquitectura típica del escenario inalámbrico que se utiliza habitualmente para generar flujos de comunicación mutua entre equipos inalámbricos y que normalmente se crea de forma espontánea sin necesitar un punto de acceso como parte integrante de la red. Un grupo de picorredes enlazadas constituye una red de dispersión. El ancho de banda asociado a Bluetooth, que es de un Mbps, puede llegar a extenderse hasta incluso más de seis Mbps con una topología de 10 picorredes enlazadas. El enlace de radio físico entre las diferentes unidades que forman una picorred se realiza mediante los protocolos que conforman las capas de banda base y de enlace.Amazon, la conocida empresa de venta de libros por internet, por fin ha entrado en el negocio de los, y lo ha hecho de una manera bastante espectacular. A continuación se indican las características de su- Sistema Operativo: Fire OS 3.5.0 (variante de Android personalizada por Amazon, no confundir con el Firefox OS que es otra cosa totalmente diferente)- CPU (Procesador): Snapdragon 800 de 4 núcleos a 2.2GHz- GPU (gráficos): Adreno 330- Memoria: 2GB RAM- Pantalla: 4.7" HD LCD, resolución 1280 x 720 (315 ppi)- Cámara principal (de atrás): 13 Megapixeles, HDR, estabilzación óptica, apertura f/2.0, Flash LED- Cámara de video-conferencia y: 2.1 Megapixeles- Video: Graba en Full HD 1080p a 30fps en ambas cámaras- Almacenamiento local: 32 GB o 64 GB- Almacenamiento en la nube: Amazon Cloud Storage, ilimitado para todo contenido de Amazon y fotos generadas en el celular- Batería: 2400mAh, permite hasta 22 horas de habla, o 285 horas en, u 11 horas de video, o 65 horas de audio/música continua- Doble altavoz con procesamiento Dolby Digital Plus- Soporta salida a TV/monitor, tanto en modo espejo como en modo de segunda pantalla- Sensores: Sistema de sensores para Perspectiva Dinámica con iluminación infrarroja invisible (al ojo humano), giroscopio, acelerómetro, magnetómetro, barómetro, sensor de proximidad, y sensor de luz ambiental- Geolocalización: GPS, GPS Asistido, Galileo, GLONASS, Wi-Fi/Celular, Brújula Digital- Redes celulares: UMTS/HSPA+/DC-HSDPA (850, 900, 1700/2100, 1900, 2100 MHz), Quatri-banda GSM/EDGE (850, 900, 1800, 1900 MHz), 9 bandas de LTE (Bandas 1, 2, 3, 4, 5, 7, 8, 17, 20), y soporta proveedores de celulares agregados- Comunicación: WiFi 802.11a/b/g/n/ac, hasta 300 Mbps con canales agregados, Bluetooth 3.0, NFC- Audífonos: Cables planos libres de enredos, con micrófono y control remoto- Tipo de chip celular: Nano SIM- Puertos: Micro USB 2.0, conector de audífonos estándar de 3.5mm- Tamaño: 139.2 mm x 66.5 mm x 8.9 mm.- Peso: 160 gramos.La característica novedosa era la denominada. Se trata de una tecnología propietaria, que esencialmente permite que el teléfono monitoree la cabeza y la posición de los ojos del usuario, para permitir que según se mueva la cabeza los elementos visuales en pantalla aparenten girar. El efecto puede describirse como si la pantalla fuera una ventana virtual, y se puede dar un vistazo "atrás" de esa ventana torciendo el teléfono (o el punto de vista del usuario) para ver a través de esa ventana. Es como que estás viendo por la ventana de tu casa, y si quieres ver lo que ocurre no solo directamente al frente de esta sino a los lados fuera de tu casa, tu te pones al lado de la ventana para aprovechar un ángulo más amplio. Esto se logra mediante cuatro cámaras adicionales (en las esquinas) de las cuales dos de ellas siempre están monitoreando la cara del usuario en un formato estereoscópico (para juzgar la distancia hacia tu cara), mientras que a la misma vez cuatro emisores de luz infrarroja (invisibles al ojo humano) están iluminando la cara constantemente, de modo que incluso en total oscuridad estas cámara pueden ver nítidamente y calcular no solo la posición de la cabeza, sino la posición exacta de los ojos, y el tamaño relativo de todos los elementos en pantalla. El siguiente vídeo explica la técnica.A mediados de la década de 1990, se desarrolló la idea de usar las redes inalámbricas de banda ancha como posibles soluciones de "última milla"para ofrecer una alternativa de conectividad a internet para empresas y particulares. Su objetivo era producir una red con velocidad, capacidad y fiabilidad de una red cableada, manteniendo al mismo tiempo la flexibilidad, simplicidad, y bajos costos de una red inalámbrica. Con este objetivo surgió WIMAX.WiMAX son las siglas de, y es la marca que certifica que un producto está conforme con los estándares de acceso inalámbrico IEEE 802.16, que permiten conexiones de velocidades similares al ADSL o al cable, sin cableado y hasta una distancia de 60 km. El impacto de esta tecnología inalámbrica puede ser considerable ya que contiene una serie de elementos que pueden favorecer su expansión: relativo bajo coste de implantación, gran alcance, velocidades de transmisión que pueden alcanzar los 75 Mbps, no necesita visión directa, disponible tanto para voz como para datos y tecnología IP extremo a extremo. Además, dependiendo del ancho de banda del canal utilizado, una estación base puede soportar miles de usuarios, superior a una red WLAN.Se suele utilizar la siguiente terminología:En el nivel más básico, WiMAX soporta aplicaciones inalámbricas móviles, fijas y nómadas. Una aplicación móvil proporciona comunicación mientras el usuario está en tránsito. Un buen ejemplo es un viajero de negocios que comunica mientras que está en un tren. El servicio compite con las tecnologías móviles celulares.La aplicaciones inalámbricas fijas a menudo proporcionan conexiones de "última milla" en las zonas rurales o subdesarrolladas que carecen de línea de abonado digital (DSL), híbrida fibra-coaxial (HFC), u otra infraestructura de cableado. Las empresas pueden contratar ya sea la tecnología WiMAX fija para el uso en su propia red privada (por ejemplo, una conexión inalámbrica punto a punto entre dos edificios) o pueden usar el servicio de WiMAX fijo de un proveedor de servicio de internet inalámbrico (WISP).Por último, una aplicación nómada es uno donde un usuario se desplaza de un lugar a otro, pero sólo se comunica mientras se encuentra parado. Un buen ejemplo es un técnico que necesita acceso a la red de alta velocidad mientras está en el lugar de un cliente, pero no durante el desplazamiento.Cuando la extinta Unión Soviética (U.R.S.S.) situó en órbita el primer satélite artificial, se veía como un punto brillante que se desplazaba entre los astros que servían de referencia para la navegación. Esto dio lugar a una idea, pasar de la navegación estelar a la gestionada por satélite. Un grupo de científicos soviéticos, encabezado por el académico V. Kotélnikov (1908-2005), sugirieron utilizar el efecto Doppler para determinar los parámetros de las órbitas de los satélites.El tres de marzo de 1978, la U.R.S.S. lanzó el satélite Cosmos 1000, iniciando el sistema de navegación Tsikada (en EE.UU. se desplegó TRANSIT), destinado a localizar a los barcos en cualquier lugar del océano. Con este sistema, se pueden obtener datos, en el ecuador cada 72 minutos,en latitudes altas más a menudo, y en las latitudes norteñas, en las que las órbitas se cruzan, ininterrumpidamente. En los barcos se instala un microprocesador, que se conecta al sistema de radionavegación tradicional Posteriormente se implantó el Sistema de Satélite de Navegación Global (SSNG), llamado GLONASS, con prestaciones análogas al tan conocido GPS.En 1986, la U.R.S.S. y EE.UU., informaron a la Organización Marítima Internacional, que se podían usar estos sistemas con fines pacíficos. EE.UU. ha desarrollado desde entonces, un sistema análogo al soviético, completado en 1995. Consta de 24 satélites, de los que tres son de reserva, situados en tres planos orbitales, a unos 20000 km de altura, con un ángulo de 120 grados, entre sí. Las señales de navegación se emiten en el rango de 1602.2 a 1615 MHz. Actualmente se está implantando un sistema europeo, Galileo, financiado y desarrollado entre la Unión Europea y la Agencia Espacial Europea (ESA), que será de uso exclusivamente civil, totalmente libre y cinco veces más preciso que GPS. China posee el sistema Beidou. Este es el origen del Sistema de Posicionamiento Global (GPS), disponible en los teléfonos móviles tipo, mientras que GLONASS de Rusia, se encuentra en muy pocos teléfonos de los comercializados en España.Existe actualmente una forma más avanzada, que optimiza aún más la precisión. Se conoce como GPS diferencial (DGPS), y con él se puede medir fiablemente una posición hasta resolución de 15 cm, y en cualquier lugar del planeta. Posteriormente se explica en detalle.Los sistemas de GPS no funcionan debajo del agua y los submarinos utilizan unos sistemas basados en acelerómetros para calcular los giros y movimientos para, una vez emerge de nuevo, saber dónde está cogiendo como referencia esos datos. Este sistema es muy poco preciso, los errores suelen ser del orden de km. Un nuevo sistema de acelerómetros cuánticos parte de un sistema de láseres que se encarga de atrapar y enfriar átomos para llevarlos a un estado cuántico. Hecho esto, se puede utilizar un láser diferente para calcular las variaciones de movimiento y de gravedad.Se basa en 24 satélites en órbita a unos 20000 km de distancia, que actúan como puntos de referencia a partir de los cuales "triangulan" su posición unos receptores en la Tierra. En cierto sentido es como una versión en alta tecnología de la vieja técnica, consistente en tomar marcaciones mediante una brújula desde las cumbres de los montes cercanos para situar un punto en el mapa.El vídeo, realizado por la Universidad Pública de Navarra-Nafarroako Unibertsitate Publikoa, explica en qué consiste el proceso de triangulación.Los satélites actúan como puntos de referencia al ser supervisadas sus órbitas con precisión desde estaciones terrestres. Mediante una medición del tiempo de viaje de las señales trasmitidas desde los satélites, un receptor GPS en la tierra determina su distancia desde cada satélite. Con la medición de la distancia desde cuatro satélites y la aplicación de cálculos, el receptor obtiene, latitud, longitud, altitud, derrota y velocidad. Los buenos receptores tienen una precisión menor que 100 m, y efectúan más de una medida por segundo. Los receptores pueden hacerse con antenas muy pequeñas, de tal tamaño, que caben en la mano, de hecho actualmente la mayoría de teléfonos móviles celulares tipolo incorporan.Otra ventaja es que las señales GPS están al alcance de todos, gratuitamente sin necesidad de pagar tasas de licencia y uso, pues los satélites son de EE.UU., de Rusia y próximamente los europeos, con lo cual no tienen ninguna opción de sacar dinero a costa de este tipo de usuarios (excepto las operadoras de telefonía móvil por el servicio AGPS). De forma general este sistema funciona en tres pasos:Es una forma de hacer más preciso al GPS. El DGPS proporciona mediciones precisas hasta un par de metros en aplicaciones móviles, e incluso mejores en sistemas estacionarios. Esto implica el que sea un sistema universal de medición, capaz de posicionar objetos en una escala muy precisa.El DGPS opera mediante la cancelación de errores naturales y causados por el hombre, que se infiltran en las mediciones normales. Las imprecisiones provienen de diversas fuentes, como los relojes de los satélites, órbitas imperfectas y, especialmente, del viaje de la señal a través de la atmósfera terrestre. Dado que son variables es difícil predecir cuales actúan en cada momento. Lo que se necesita es una forma de corregir los errores reales conforme se producen. Aquí es donde entra el segundo receptor, se sitúa en un lugar cuya posición se conozca exactamente. Calcula su posición a través de los datos de los satélites y luego compara la respuesta con su posición conocida. La diferencia es el error de la señal GPS.No es posible calcular el error en un momento y que valga para mediciones sucesivas, ya que los receptores de los satélites cambian continuamente. Para realizar esta tarea es necesario tener dos receptores operando simultáneamente. El de referencia permanece en su estación y supervisa continuamente los errores a fin de que el segundo receptor (el itinerante) pueda aplicar las correcciones a sus mediciones, bien sea en tiempo real o en algún momento futuro. El concepto ya está funcionando algún tiempo y se ha utilizado ampliamente en la ciencia e industria. Hay una norma internacional para la transmisión y recepción de correcciones, denominada "Protocolo RTCM SC-104".Si el mundo fuera como un laboratorio, el GPS sería mucho más preciso, sin embargo parece una jungla, hay multitud de oportunidades para que resulte perturbado el sistema. Seguidamente se indican los errores a los que hay que enfrentarse:Un receptor GPS puede desplazarse a cualquier sitio y realizar mediciones por sí mismo, empleando como referencia los satélites GPS. Mientras que el DGPS implica otro receptor más, es decir uno que se desplaza y otro estacionario.Previamente se han comentado las diversas fuentes de error. A su vez las distancias entre los dos receptores son muy pequeñas comparadas con las distancias a las que se encuentran los satélites, esto quiere decir que recorrerán la atmósfera con retrasos análogos, de forma que una de las estaciones puede dedicarse a medir esos errores y facilitárselo a la otra.Se ha de ubicar el receptor de referencia en un punto cuya posición se haya determinado con exactitud, al recibir las señales GPS realiza los cálculos en sentido inverso al de un receptor. Emplea su posición para calcular el tiempo y así obtiene el error entre el teórico y el real. Todos los receptores de referencia han de facilitar esta información de errores a todos los receptores itinerantes de su zona con objeto de que corrijan sus mediciones. El receptor de referencia reconoce todos los satélites visibles y calcula los errores instantáneos. Luego codifica esta información en un formato estándar y lo transmite a los receptores itinerantes.Algunos trabajos no requieren correcciones en tiempo real, en este caso se conoce como GPS posprocesado.También existe el DGPS invertido, por ejemplo, en una flota de camiones que informan periódicamente de su posición a una estación base. En lugar de enviar a los camiones las correcciones diferenciales, la corrección se realiza en la estación base. Los camiones sólo conocen su posición de una manera aproximada, pero el controlador sabría la posición exacta, hasta el punto de poder ubicar el camión en el carril de la calle en que se encuentra.El sistema GPS para usos no militares tenía una limitación puesta intencionadamente por el ministerio de defensa de EE.UU., con la finalidad, como ya en normal en ellos de incordiar y no beneficiar a nadie, la limitación a 100 m en la resolución, salvo que se use el DGPS que como se ha visto requiere más medios y por lo tanto es más costoso. Debido a las presiones de diversos sectores, el presidente de EE.UU, Clinton. indicó que en el plazo de 10 años se eliminarían las restricciones militares, pero mientras tanto el error era demasiado grande para algunas aplicaciones, como el control de flotas de autobuses urbanos. Para resolver esta falta de resolución, en EE.UU se propuso un sistema aplicable a los autobuses que consta del siguiente equipamiento en cada autobús, un odómetro o sensor de velocidad del vehículo, y un giróscopo que nos dará el cambio en acimut del vehículo. Estos sensores ha de estar perfectamente calibrados y además ha de conocerse la posición inicial y el acimut. Como todos los sensores están sujetos a error esta no es la solución perfecta. La empresa Andrew Corp., desarrolló un sistema que combina lo mejor del GPS y el sistema de posicionamiento continuo (CPS). El sensor de GPS calibra los sensores para evitar errores acumulados. El factor más importante en la generación de errores es la estabilidad del giróscopo, reducidos al mínimo con el sistema Navigator AUTOGIRO, basado en un giróscopo con fibra óptica, diseñado especialmente para sistemas de navegación.Información diversa sobre telecomunicaciones se encuentra en: Redes y comunicaciones. Apuntes y divulgación
La tecnología nuclear tiene múltiples aplicaciones que son fundamentales en nuestra vida cotidiana. Si bien las más conocidas son la medicina y la producción de electricidad en las centrales nucleares, existen otras muchas en campos tan diversos como la agricultura, la industria o el arte.
Aplicaciones que tienen una gran presencia en nuestro día a día y que en el futuro tendrán aún más relevancia gracias a la investigación que aumenta sus posibilidades de aplicación y justifica su utilización.
Te mostramos en esta infografía las 10 aplicaciones de la tecnología nuclear más destacadas y explicamos algunas de ellas:
Con motivo del Día Mundial de las Telecomunicaciones, hemos recopilado los inventos que revolucionaron el mundo de las telecomunicaciones. Éste se celebra, cada año, el 17 de mayo desde 1969, para conmemorar la fundación de la Unión Internacional de Telecomunicaciones (UIT) de Naciones Unidas (ONU) y la firma del primer Convenio Telegráfico Internacional en 1865.
Cada 17 de mayo desde 2005, también se celebra en España y en otros países (sobre todo de Sudamérica) el Día Mundial de Internet, promovido por la Asociación de Usuarios de Internet.
Queremos aprovechar la ocasión para compartir con vosotros esta infografía que incluye los inventos más destacables que revolucionaron el mundo de las telecomunicaciones.
1440. La imprenta
Johannes Gutenberg fue considerado el Padre de la Imprenta. En sus inicios trabajó como orfebre y poco después se trasladaría a Estrasbusrgo donde instaló una empresa de grabados en madera en una vieja fábrica de telas. Allí empezó a desarrollar la técnica de la litografía y escribiría sus primeros textos. A raíz de una apuesta, la máxima de Gutenberg sería demostrar que podía realizar una copia de la Biblia en menos tiempo del que les llevaba hacerlo a los más rápidos monjes copistas y que la calidad sería perfecta. Para llevar a cabo tan ardua tarea confeccionó los primeros “tipos móviles” de cada una de las letras del abecedario. Utilizó sus conocimientos de herrero sobre fundición para diseñar esta técnica.
1832. El telégrafo
A finales del siglo XIX los mensajes se transmitían casi de forma instantánea gracias a la invención del telégrafo. El prototipo más célebre fue el diseñado por Samuel Morse, que consistió en un código que asignaba a cada letra del alfabeto un número de puntos y rayas. Este sistema permitió aumentar la velocidad de transmisión. En 1844 se puso en marcha la primera línea telegráfica entre Washington y Baltimore, en Estados Unidos.
1854. El teléfono
El primer prototipo fue construido por Antonio Meucci, aunque no formalizó su patente por dificultades económicas, presentando solo una breve descripción de su invento en la Oficina de Patentes de Estados Unidos en 1871. Entre ambas fechas, en 1861, Johann Philipp Reis ya había desarrollado otro prototipo independientemente, por lo que la solicitud de Meucci llegó tarde. Pocos años después, en 1876, Alexander Graham Bell fue el primero en patentarlo formalmente, y durante muchos años, junto a Elisha Gray, fueron considerados los inventores del teléfono.
1867. La máquina de escribir
La primera máquina de escribir con éxito comercial real fue inventada en 1872 por Christopher Sholes, Carlos Glidden y Samuel W. Soulé. Sholes pronto repudió la máquina, rehusando usarla e incluso recomendarla.
1894. La radio
Muchos consideran a Nikola Tesla el verdadero inventor de la radio, aunque fue Guglielmo Marconi quien presentó la patente en 1904. Como consecuencia, en 1909, Marconi recibió el Premio Nobel de Física por su contribución a la telegrafía sin hilos.
En 1895, Tesla ya había inventado un sistema para transmitir mensajes de voz sin hilos. Sin embargo, fue Marconi quien utilizó el invento de Tesla en 1899 para realizar la primera comunicación sin cables: envió un mensaje entre Dover (Inglaterra) y Boulougne (Francia), a una distancia de 48 kilómetros. No fue hasta el año 1943 cuando la Corte Suprema de Estados Unidos reconoció a Nikola Tesla como el inventor de la radio y le devolvió la patente en poder de Marconi hasta ese momento.
Recomendamos encarecidamente leer nuestro post sobre Nikola Tesla si aún no lo habéis hecho. Nikola Testa ha sido el más grande y olvidado inventor del siglo XX y quien iluminó el mundo.
1926. La televisión
John Logie Baird fue el primer científico en la historia que logró la transmisión por televisión de objetos en movimiento. Convencido de que era posible enviar imágenes a través de ondas de radio, construyó en 1924 un rudimentario aparato mecánico a partir del disco explorador de Nipkow, logrando transmitir, a más de tres metros de distancia, la silueta de una cruz de Malta. Su aparato estaba construido con elementos de desecho –la base era una caja de té y la lámpara proyectora estaba dentro de una lata de galletas, los discos eran de cartón y empleó los lentes más baratos del mercado-, ensamblados y unidos artesanalmente.
En 1925, Baird logró transmitir un rostro humano reconocible y en 1926, imágenes en movimiento. Dos años después, fundó la Baird Television Development Company, realizó una transmisión desde Londres a Glasgow y mostró un primer aparato de televisión en color. En 1928 transmitió desde Londres a NY y, un año más tarde, una compañía alemana le propuso desarrollar un servicio de transmisiones de televisión.
En colaboración con la BBC de Londres, Baird realizó la primera transmisión pública de televisión en 1929; poco después, se televisó la primera obra de teatro y más adelante ya se emitían transmisiones en vivo. Aunque el sistema de televisión de Baird fue el primero y en sus orígenes estaba mucho más avanzado que experimentos similares en EEUU, era un sistema mecánico que sería superado pronto por el uso del tubo de rayos catódicos, patentado por Vladímir Zworykin.
1941. El ordenador
En 1941 el ingeniero alemán Konrad Zuse presenta Z3 la primera computadora digital. Las primera versiones, aun imperfectas, Z1 (1938) y Z2 (1940) se ensamblaron en la casa de sus padres y gracias al apoyo financiero de amigos. La Z3 se considera una de las primeras máquinas programables y automáticas que de manera eficiente podía desarrollar sumas, restas, multiplicación, división, sacar la raíz cuadrada y gestionar memoria. Funcionaba gracias a 2300 relés de teléfono y la reutilización de cintas cinematográficas que perforadas servían como memoria de las instrucciones.
1969. ARPANET
En 1963 Joseph C. R. Licklider, de Bolt, Beranek y Newman (BBN), en una serie de notas que discutían la idea de «red galáctica», formularon el concepto de una red de ordenadores, capaz de comunicar usuarios en distintas computadoras.
Sin duda, son muchos los inventos que revolucionaron el mundo de las telecomunicaciones. Este post solo recopila los hitos más destacables. Para ti, ¿cuál ha sido el invento más importante?
Fuente: TecnoGraphic, Universitat de València, Wikipedia, La Vanguardia, Timetoast
Post a Comment