Autor: Alejandro Neri Rendón
Titulo: Sistemas de Comunicación
Area:
Pais:
Perfil:
Programa:
Disponible para descarga: Yes
Ver Más Publicaciones Estudiantiles Clic aquí
Diseminar información, ideas innovadoras y conocimientos académicos es una función importante para Atlantic Internacional University. Publicaremos noticias, artículos, comentarios y otras publicaciones de nuestros estudiantes y otros colaboradores. Si desea contactar al autor por motivos profesionales favor enviar su petición por este medio.
Para conocer más de la iniciativa de Acceso Abierto de AIU haga Clic aquí.
INTRODUCCIÓN
1 PROLOGO:
Este trabajo es producto del diplomado de Calculo de Enlace Satelital que decidí cursar con la finalidad de dominar los enlaces vía microondas y satelital, necesarios para desarrollar mi trabajo, así mismo aproveche para desarrollar la materia (sistemas de Comunicación) propuesta en mi plan de estudios.
En la actualidad las comunicaciones han tomado tal fuerza y principalmente en la institución donde trabajo es de vital importancia realizar este tipo de enlaces para cubrir eventos de carácter cultural y educativo como por ejemplo el cervantino que se realiza en el estado de Guanajuato el cual tiene importancia mundial, y La Dirección General de Televisión Educativa (DGTVE), la cual es dependencia de la SEP, y tiene la responsabilidad de difundir a través de señal satelital canales culturales y educativos así como también la señal para Telesecundaria y Telé bachillerato. Es aquí donde participa la DGTVE y el departamento de Ingeniería donde colaboro, este departamento es responsable de realizar toda la instalación del equipo de producción televisiva y enlazarla para su transmisión vía satélite.
La importancia de transmitir la señal de televisión Educativa a las escuelas es fundamental por que es la única forma que tienen los niños e incluso los adultos de estudiar y tener un contacto con el mundo. En México por su geografía y economía no es fácil que cada población tenga escuelas con maestros por lo cual una solución alterna es la de tele secundaria y para que esto sea posible se tiene que instalar un sistema compuesto de una antena receptora un receptor o sintonizador satelital y una televisión además de la instalación eléctrica y en lugares donde no hay energía se instala un sistema fotovoltaico, de esta forma gran parte de la población rural que cursa sus estudios de primaria, secundaria, tele bachillerato e incluso diplomados de especialización logran hacerlos mediante programas de televisión transmitidos desde la capital.
Al estar en el área de Ingeniería mi responsabilidad es la de no solo mantener funcionando el equipo sino también establecer las líneas de comunicación para poder llevar la señal de un punto a otro por tal motivo es obligatorio el dominio de la teoría y practica sobre enlace satelital y microondas.
El diplomado estuvo compuesto por la teoría de las comunicaciones satelitales y la practica donde se realizaron ejercicios y resolvieron problemas así como también se estudiaron los principales elementos a considerar para un correcto enlace satelital cabe aclarar que el calculo de enlace satelital requiere de un seguimiento y calculo matemático preciso para tener una correcta comunicación, de lo contrario un error podría desde no lograr la comunicación y en el caso mas extremo dañar el Transponder del satélite estaríamos hablando de que el daño seria catastrófico debido al costo y tiempo que implica poner un satélite en órbita por lo cual no se puede dar uno el lujo de cometer errores así mismo se tiene que hacer un correcto análisis de los requerimientos para realizar una comunicación satelital esto es desde que satélite se va a utilizar cual es su cobertura y ancho de banda así como el costo y tiempo de la transmisión, después de estos datos se necesita considerar si se requiere comprar el equipo de transmisión hablamos de antenas (High-Power Amplifiers HPA) receptores transmisores medidores y sistemas de audio y video o datos, o en caso de ser eventual rentarlo, la obligación de el ingeniero encargado del enlace es la de analizar el equipo y geografía y a partir de este punto realizar un calculo que implica elegir el equipo adecuado considerar las condiciones meteorológicas y el Transponder por el cual se realizara el satélite así mismo se tiene que contactar con la empresa dueña del satélite para rentar el servicio llevando previo todo el calculo que implica hablamos de equipo que se utilizara lugar fecha y hora así como la potencia a la cual se enviara la señal al satélite y al mismo tiempo tener la potencia y atenuación con la que se recibirá. De la experiencia adquirida se desarrollo el siguiente trabajo.
2 INTRODUCCION:
El propósito del presente trabajo, tiene como finalidad establecer una comparación entre los sistemas de compresión digital como son La tecnología DigiCipher y el estándar (Digital Video Broadcasting DVB), a fin de satisfacer las necesidades que requiere la Dirección General de Televisión Educativa para el proceso de Migración Tecnológica que está llevando a cabo la DGTVE, reflejando con ello la mayor optimización del Recurso satelital.
Esto pretende ayudar a una mayor difusión de la educación, logrando ampliar la cobertura de la red Edusat, así como la programación (pues se podrá tener hasta 16 canales de Televisión de calidad digital) y el contenido de los programas.
Ahora bien, con el fin de dar a conocer los conceptos necesarios que se encuentran implícitos dentro del Proceso de Migración Tecnológica de la Red Edusat, que se lleva a cabo dentro de la Dirección General de Televisión Educativa, se recopiló la Presente información con el fin de cubrir los siguientes objetivos:
Aspectos Generales: Proporcionar los conocimientos precisos sobre los temas de comunicaciones vía satélite.
Sistemas de Transmisión para señales de Televisión: Presentar de manera precisa la Información necesaria sobre Televisión Analógica, Televisión Digital y algunos de los estándares de compresión digital.
Realizar la revisión general del Estándar seleccionado por la DGTVE para la migración Tecnológica; es decir verificar el funcionamiento de algunos equipos de recepción digital con estándar DVB.
Facilitar a través de este documento, la capacitación y aprendizaje de técnicos e ingenieros, de los conceptos que se encuentran inmersos dentro de la Migración Tecnológica.
La presente información integra contenidos que dan respuesta a interrogantes como ¿para qué sirve y qué elementos integran los sistemas de transmisión recepción de señales vía satélite? ¿Cuáles son los sistemas de compresión empleados en la Red Edusat? y ¿qué es el Estándar DVB? La solución a estas y otras preguntas permitirá hacer de este material una herramienta de apoyo invaluable para el desarrollo de futuros ingenieros y técnicos en telecomunicaciones. Este material constituye una lectura obligada para quien pretenda emplear Sistemas de Transmisión de señales vía satélite, ya que abarca desde tópicos muy generales que permiten comprender los conceptos básicos de las comunicaciones vía satélite, revisa los conceptos básicos de las transmisiones de señales vía satélite, televisión digital y analógica, pasando por una sólida revisión de todos y cada uno de los componentes de los Sistemas de televisión analógica y digital, hasta temas muy especializados de Sistemas de compresión, Calculo de enlaces, El estándar DVB, entre otros.
3 ANTECEDENTES:
En el transcurso de los últimos años, el empleo de las nuevas tecnologías de la comunicación y la informática han permitido mejorar la calidad de la Educación, como también extender y promover en forma continua la cobertura de los servicios a poblaciones pequeñas, dispersas y de difícil acceso, así como a las de gran magnitud. Pese a los avances logrados hasta ahora, el desarrollo desigual de nuestro país ha impedido que los beneficios educativos alcancen a toda la población. Hoy en día persisten numerosos niños, adolescentes y jóvenes que aún no son atendidos por el Sistema Educativo.
La mayor parte de la población, que permanece al margen de los servicios educativos, habita en las localidades más alejadas y dispersas del territorio nacional o en alguna de las zonas urbanas marginadas del país o bien pertenece a alguna etnia indígena, que por lo general se encuentra en condiciones de pobreza extrema.
Pese a los grandes esfuerzos que se han realizado en los últimos años por aumentar la cobertura de los servicios educativos del nivel básico, se han encontrado condiciones muy desfavorables, ya que existen comunidades con carencia de servicios elementales, las cuales no ofrecen las posibilidades del desarrollo y acentúa el rezago educativo existente.
En estas condiciones, el Programa Nacional de Educación (PNE) 2007-2012 tiene entre sus objetivos estratégicos avanzar hacia la equidad en la educación y proporcionar una educación de calidad adecuada a las necesidades de todos los mexicanos.
En este PNE 2007-20012, se establece la política de fomento al uso educativo de las tecnologías de la información y comunicación en la educación básica, con lo que se impulsarán el uso, expansión y desarrollo de las tecnologías de la información y la comunicación, así como la producción de materiales audiovisuales e informáticos que favorezcan el aprendizaje.
La Dirección General de Televisión Educativa (DGTVE), dependiente de la Secretaría de Educación Pública, es la responsable de llevar a cabo las acciones necesarias y cumplir las metas que en este sentido compromete el PNE 2007-2012. En Diciembre de 1995, el Gobierno Federal a través del Programa de Modernización para la educación 1989-1994 creó la Red de Educación vía Satélite (Edusat), para dar respuesta a la creciente demanda del servicio educativo del país, así como al rezago en las poblaciones más dispersas y alejadas del territorio
Nacional utilizando la televisión.
Con este sistema de televisión educativa se pretende atender las necesidades de alfabetización, capacitación, educación básica, media superior, superior técnica y tecnológica de las cuales la Secretaría de Educación Pública es órgano rector.
La Red Edusat opera actualmente a través de los satélites Solidaridad II, el cual cubre en su totalidad la República Mexicana, el sur de Estados Unidos, Centroamérica y el Caribe; y el satélite SATMEX 5 que cuenta con una cobertura continental y próximamente se migrara del satélite solidaridad II al satmex 6.
Este sistema tiene una capacidad de operación, en este momento, de Ocho canales básicos de televisión, cuatro administrados por la Dirección General de Televisión Educativa (DGTVE) 11, 12, 14 y 17 y cuatro por el Instituto Latinoamericano de la Comunicación Educativa (ILCE) 13, 15, 16 y 18 que transmiten las 24 horas de los 365 días del año.
Cabe destacar que la Red Edusat emplea el sistema de compresión digital, conocido como Tecnología DigiCipher en sus dos versiones: DigiCipher I (DC I) y DigiCipher II (DC II). Esta tecnología es propiedad de Motorola, la cual tiene más de 8 años en funcionamiento. Se considera, por lo tanto, un sistema cerrado porque requiere de actualización y renovación exclusiva de Motorola y sus costos son elevados al no haber otro fabricante de estos equipos. Actualmente la Red Edusat cuenta con aproximadamente 33,000 sistemas de recepción instalados en distintas instituciones tales como:
Telé secundarias
Secundarias técnicas
Secundarias generales
Primarias
Centros de educación indígena
Centros de maestros
Institutos tecnológicos estatales
Universidades
Campos militares de SEDENA
Centro de readaptación social (CERESO)
Instituto Federal Electoral en los estados
Hospitales
Consejo Nacional de Fomento Educativo (CONAFE)
Instituto Nacional para la Educación de los Adultos (INEA)
El Sistema Edusat no sólo es una herramienta para fortalecer el trabajo del docente y apoyar el aprendizaje de los alumnos, es también una opción para enriquecer la formación cotidiana de la población en general. Esto gracias a que en sus canales se transmite una programación variada que incluye entre otros programas de educación curricular para distintos niveles educativos, programas complementarios al currículo, programas de actualización docente, programas de capacitación, así como diversas series educativas dirigidas a todo público; todos éstos pretenden el desarrollo integral de las personas.
Para aprovechar al máximo las potencialidades del equipo y en consecuencia los servicios educativos que la Red Edusat ofrece, la DGTVE ha implementado el Programa de Migración y Convergencia Tecnológica con el que se pretende sustituir a todo lo largo y ancho de la República mexicana toda la Tecnología DigiCipher (DC I y DC II) por la Tecnología DVB, con el fin de proporcionar un sistema más abierto y una mayor cobertura de la educación en México, además de renovar y modernizar el sistema de transmisión de la Red Edusat.
Este material constituye una lectura obligada para quien pretenda emplear Sistemas Satelitales, ya que abarca desde tópicos muy generales que permiten entender los diferentes tipos de sistemas de compresión empleados en la Red Edusat, revisa los conceptos básicos de Sistemas de Comunicación vía satélite, pasando por una sólida revisión de todos y cada uno de los componentes de los Sistemas de televisión tanto analógicos como digitales, hasta temas muy especializados como lo son el de: “El Estándar DVB” y el Calculo de enlaces Satelitales para banda C.
4 SATÉLITES EMPLEADOS
SATÉLITES MEXICANOS: México cuenta con dos sistemas de satélites, entre los cuales se incluye el sistema de satélites Morelos (I y II). Actualmente tiene en funcionamiento los Sistemas Solidaridad (I, perdido en Agosto 27 del 2000, y II) y los Satmex (5 y 6). Con estos satélites se tiene cobertura en el Continente Americano incluyendo la parte sur de Canadá. Actualmente la Red Edusat emplea los satélites Solidaridad II y Satmex 5. A raíz de la pérdida del solidaridad I, se emplea el Satmex 5 para cobertura Continental y el solidaridad II para la cobertura nacional este último será sustituido por el Satmex 6. Los satélites mexicanos se encuentran en un área llamada órbita geoestacionaria, la cual se ubica a aproximadamente 36,000 km de distancia de la tierra sobre el plano del Ecuador. El satélite Solidaridad I operaba en una longitud de 109.2° Oeste, la cual emplea el Satmex 6; el Solidaridad II se encuentra en una longitud de 113.0° Oeste y el Satmex 5 en una longitud de 116.8° Oeste, con referencia al meridiano de Greenwich.
|
SATÉLITE |
TRANSPONDER |
FREC. DE SUBIDA. |
FREC. DE BAJADA |
DC I |
SOLIDARIDAD II |
3N |
6.025 GHz |
3.800 GHz |
DC II |
SATMEX 5 |
24 C |
6.405 GHz |
4.180 GHz |
Tabla1
SATELITES SOLIDARIDAD
El sistema de satélites Solidaridad representa la segunda generación de comunicaciones espaciales para México (Se debe de recordar que el satélite Solidaridad I ya no esta en operación). En forma similar a los satélites Morelos, cada uno de los Solidaridad cuenta con 18 Transponders en banda C, pero con mucho mayor potencia que los primeros, y cobertura en más áreas geográficas, gracias a la tecnología de amplificadores de estado sólido (Solid State Power Amplifier SSPA) empleados en su construcción. Asimismo, dentro de la carga útil se cuenta con 16 Transponders de banda Ku equivalentes a 4 veces la capacidad que se tenía en los Morelos. Adicionalmente existe un sistema de transmisión en banda L, que permite dar servicios de comunicación móvil a todo el país, incluyendo sus costas y mar territorial.
Todas las bandas cubren México, además de las extensiones en banda Ku para coberturas en la frontera sur de los Estados Unidos, la costa Este y las ciudades de San Francisco y Los Ángeles. La cobertura en banda C se extiende hacia el Caribe, Centro y Sudamérica.
ESPECIFICACIONES SOLIDARIDAD II |
|||
Solidaridad II |
36 MHz Banda C |
72 MHz Banda C |
54 MHz Banda Ku |
PIRE (dBW) |
R1: 37.0 |
R1: 40.1 |
R4: 47.0 |
G/T (dB/°K) |
R1: 4 |
R1: 2 |
R4: 2 |
Densidad de flujo a saturación |
R1: -93 |
R1: -91 |
R4: -94 |
No. de Transponders |
12 |
6 |
16 |
Redundancia |
14 SSPAs para 12 canales |
8 SSPAs para 6 canales |
19 TWTAs para 16 canales |
Rango de atenuación de entrada |
0 a 14 dB en pasos de 2 dB |
0 a 14 dB en pasos de 2 dB |
0 a 22 dB en pasos de 2 dB |
Inicio de operación |
Diciembre de 1994 |
|
|
Vida estimada de operación |
14 años |
|
|
Tabla2
El DVB (Digital Video Broadcasting) es un organismo encargado de crear y proponer los procedimientos de estandarización para la televisión digital compatible. Está constituido por más de 270 instituciones y empresas de todo el mundo. Los estándares propuestos han sido ampliamente aceptados en Europa y casi todos los continentes, con la excepción de Estados Unidos y Japón donde coexisten con otros sistemas propietarios. Todos los procedimientos de codificación de las fuentes de vídeo y audio están basados en los estándares definidos por MPEG
EN EL SATELITE SOLIDARIDAD 2
TRANSPONDER 3N
36
Figura 2
COBERTURAS
Cobertura Satélite Satmex 5
Cobertura Satélite Solidaridad II
BANDA C1 Figura 7 |
BANDA C2 Figura 8 |
KU 5 Figura 9
5 CONCEPTOS GENERALES DE COMUNICACIONES
TIPOS DE SISTEMAS DE COMUNICACIÓN
Se denomina “Sistema” al conjunto de componentes o dispositivos del mundo físico que interactúan entre sí, que aceptan señales como entradas, las transforman y generan otras señales a su salida. En la figura 10 se representa a bloques la entrada al sistema, el sistema que transforma la señal de entrada y la salida del sistema, respectivamente.
SEÑAL DE ENTRADA------>SISTEMA DE COMUNICACION------>SEÑAL DE SALIDA
Figura 10
Existen dos tipos básicos de sistemas de comunicación electrónica, analógica y digital. Los sistemas de comunicación analógica son en los que se transmite y recibe la energía electromagnética en forma analógica (una señal variando continuamente tal como una onda senoidal), los sistemas de radio y televisión comerciales emiten señales analógicas. Los sistemas de comunicación digital son en los que transmite y recibe la energía electromagnética en forma digital (niveles discretos tal como + 5 v y tierra), los sistemas binarios utilizan señal digital que solo tienen dos niveles discretos. Estos sistemas pueden transmitir o recibir la señal en forma alámbrica e inalámbrica.
6 COMUNICACIÓN SATELITAL
La comunicación por satélite moderna ha sido posible a una combinación de ciencia y tecnología espacial, cada año se ponen en órbita satélites más eficientes y complejos, a un costo cada vez menor. La comunicación por satélite es uno de los negocios que más eficazmente a evolucionado en el mundo de las telecomunicaciones.
Satélite: es un cuerpo celeste animado de un movimiento de translación en torno generalmente, de un planeta, existen dos tipos naturales y artificiales.
DEFINICIÓN DE SATÉLITE ARTIFICIAL
Es un elemento físico que esta colocado en órbita por las necesidades que tiene el hombre para recibir y transmitir información a cualquier punto de la Tierra.
La mayoría de los satélites de comunicación son colocados en el cinturón de Clarke, esto significa que se encuentra en el arco Geosincrónico, a una altura sobre el ecuador de 35.00 km. La velocidad de los satélites artificiales es igual a la de la rotación terrestre y giran sobre su propio eje, por ello, cada satélite aparece inmóvil con respecto a la Tierra, permitiendo que las antenas fijas apunten directamente hacia cualquier satélite específico.
Un satélite es un elemento capaz de recibir y transmitir datos, audio y vídeo en forma analógica o digital de alta calidad. Está formado por Transponders. El satélite toma su energía de la luz del sol. Cada satélite tiene un tiempo de vida determinado, el cuál varía según la cantidad de combustible que posee. Dicho combustible sirve para mover al satélite cada vez que éste se sale de su órbita. Si el satélite pierde su posición y no tiene combustible, no hay manera de regresarlo y es atraído por las fuerzas espaciales, perdiéndose. El satélite tiene un margen bien determinado en el espacio. Es un cubo imaginario de aproximadamente 75 Km por lado, si el satélite se mueve dentro de ese cubo sin salirse de el no se presenta cambio alguno en la señal.
Figura 11
Los sistemas que posibilitan el funcionamiento de un satélite son:
Antenas:
Posibilitan la recepción y la transmisión de las señales de radiofrecuencia.
Comunicaciones:
Amplifican las señales y cambian su frecuencia.
Energía eléctrica:
Suministran electricidad con los niveles adecuados de voltaje.
Control térmico:
Es el que regula la temperatura del conjunto.
Posición y Orientación:
Determina la posición y orientación del satélite.
Propulsión:
Proporcionar incrementos de velocidad y pares para corregir la posición y la orientación.
Rastreo, telemetría y comando:
Intercambian información con el centro de control en tierra para conservar el funcionamiento del satélite.
Estructural:
Alojan todos los equipos y le da rigidez al satélite.
Las principales características de funcionamiento de un satélite son:
Recibir y transmitir señales. Aumentar la potencia de las mismas: Este proceso es indispensable, ya que sin una potencia suficiente la información llegaría en forma deficiente o simplemente no llegaría.
Disminuir la Frecuencia e invertir la Polaridad: Son dos maneras de evitar que las señales, tanto de ascenso como de descenso se interfieran y existan pérdidas en la información
Un satélite denominado "Geoestacionario", gira alrededor de la tierra a la misma velocidad angular que nuestro planeta sobre su eje. Su posición está determinada siempre por una latitud 0º y una longitud de acuerdo a su posición.
Longitud 0º = meridiano de Greenwich
Latitud 0º = Ecuador
Un satélite girando con una velocidad angular igual a la de la tierra (3.0746 km/seg), en una latitud cero (sobre el Ecuador), y a una distancia aproximada de 36,000 km respecto a la superficie terrestre (o a 42,162 km del centro de la tierra), se dice que es un satélite geoestacionario.
Existe una gran variedad de satélites artificiales con una gran variedad de aplicaciones, tales como, celestes (Colocados en otros cuerpos celestes como el Sol y entre otros planetas), científicas, militares y astronómicas y equipado según su contenido, con diferentes instrumentos y fuentes de energía (Una de ellas equipada con celdas solares).
Satélites Científicos; Recogen datos del campo magnético terrestre, auroras boreales y distintos tipos de radiación.
Satélites Astronómicos; Permiten escrutar el espacio sin el obstáculo que presenta la atmósfera terrestre, que absorbe gran parte de la luz y la radiación.
Satélites Meteorológicos; Recogen información sobre la atmósfera, los sistemas de nubes y el equilibrio térmico.
Satélites de Comunicaciones; Permiten la transmisión de llamadas telefónicas, imágenes y programas de televisión a cualquier parte del mundo, transmisión de datos, red Internet, etc.
Satélites de Navegación; Situados en órbitas fijas, emiten señales para ayudar a barcos y aviones a determinar su posición.
Satélites de Observación ó Espías; Fotografían instalaciones militares, nucleares, detectores de misiles y es utilizado básicamente para fines militares.
7 TIPOS DE ORBITAS
En el creciente avance Tecnológico de las Telecomunicaciones del Mundo y la demanda de mejores servicios de comunicación, también los satélites son construidos de acuerdo a las necesidades por lo que estos tienen características diferentes. Existen diferentes tipos, como son; Satélites Geoestacionarios (los que conocemos como GSO), De Órbita Baja (los que conocemos como LEO), De Órbita Media (los que conocemos como ICO), que se encuentran a diferentes distancias de la tierra, algunos en un punto de coordenadas fijo y otros en un movimiento de translación alrededor de la Tierra. Los satélites que se utilizan en la Red Edusat son Geoestacionarios
Figura 12
ORBITA BAJA
En esta órbita se encuentran los satélites conocidos como satélites de órbita baja (LEO), se encuentra aproximadamente a 1000 Km, de la Tierra y que regularmente es una constelación de satélite girando en movimiento de translación alrededor de la Tierra para tener una cobertura completa de la región, su utilidad es en la Radiocomunicación Digital, La Estrategia Militar, Aeronáutico y Marino, La Telefonía Celular y La Transmisión de Datos.
ORBITA MEDIA
En esta órbita se encuentran los satélites conocidos como satélites de órbita media (ICO), se encuentra aproximadamente entre 10,000 y los 20,000 Km, de la Tierra y que regularmente es una constelación de satélite girando en movimiento de translación alrededor de la Tierra para tener una cobertura completa de la región. Estos satélites giran en dos grupos iguales, en forma perpendicular cada grupo, su utilidad es en la Radiocomunicación Digital, La Estrategia Militar, Aeronáutico y Marino, La Telefonía Celular y La Transmisión de Datos.
ÓRBITA GEOESTACIONARIA.
En esta órbita se encuentran los satélites conocidos como satélites Geoestacionarios (GSO), se encuentra aproximadamente a 36,000 Km, de la Tierra, la que se conoce como arco satelital, estos satélites mantienen un punto de coordenadas fijo con respecto a la Tierra, esto permite cubrir una región.
Estos satélites giran junto con la Tierra, se encuentran sobre la línea imaginaria del Ecuador. Estos satélites pueden transmitir Datos, Voz, Radiocomunicación, Telefonía, Vídeo, TV.
8 SATÉLITES GEOESTACIONARIOS
Son todos los Satélites Artificiales que están situados en órbita a 35.812 Km (22.247 millas) aproximadamente, este es el lugar donde las fuerzas de gravedad y las espaciales están en equilibrio y giran sobre el Ecuador, además de mantener un punto de coordinadas fijo con relación a la tierra ya que el giro es sin perder este punto.
ARCO SATELITAL
El arco satelital es donde se encuentran ubicados todos los satélites geoestacionarios, estos están sobre la línea imaginaria del Ecuador a 36000 Km aproximadamente de la tierra.
9 TRANSPONDER
Es un dispositivo que forma parte del satélite, el cual cuenta con varios Transponders en su interior, estos son capaces de recibir el mensaje, lo desglosa, amplifica y lo transmite al receptor, el cuál hace una serie de ajustes con la polaridad, tiene la capacidad de transformar el mensaje de digital a analógico y de analógico a digital los satélites tienen 12 Transponders verticales y 12 horizontales.
Tiene como función principal la de amplificar la señal que recibe de la estación terrena, cambiar la frecuencia y retransmitirla nuevamente a una o varias estaciones terrenas, con una cobertura amplia. La función de un transponder es recoger la señal entrante de la antena receptora, esta señal es amplificada por un LNB (amplificador de bajo ruido), el que incrementa la señal sin admitir ruido. A la salida del LNA la señal es pasada a un convertidor de frecuencia que reduce la señal a su frecuencia descendente. La señal descendente pasa para su amplificación final a un amplificador de alta potencia (HPA) (usualmente de 5 a 15 watts), el que tiene un tubo de ondas progresivas (TWT) como amplificador de salida. Una vez concluido el proceso la señal es pasada a la antena descendente y se realiza el enlace descendente con la estación receptora.
Transponder tipo N: Transponder angosto con un ancho de banda de 36 MHz en banda C (6/4 GHz).
Transponder tipo W: Transponder ancho de banda de 72 MHz en banda C (6/4 GHz).
Transponder tipo Ku: Transponder de 54 o 108 MHz ancho de banda en banda Ku (14/12 GHz).
Figura 13
Diagrama de un Transponder en banda C
10 TÉCNICAS DE ACCESO A SATÉLITE
Se conocen muchos algoritmos para repartir un canal de acceso múltiple, por lo que implica tener diferentes técnicas de acceso que se pueden encontrar en el ancho de banda. Una de estas técnicas es el TDM (Multiplexación por división de tiempo) y la otra es el FDM (Multiplexación por división de frecuencia).
Por ejemplo, consideremos la teoría de la fiesta de cóctel de acceso a un canal, en ella se encuentran muchas parejas conversando. TDM es cuando toda la gente está en el centro del cuarto, pero se turnan para hablar, primero uno, y luego el otro. FDM es cuando la gente se junta en grupos ampliamente dispersos, llevando cada grupo su propia conversación al mismo tiempo que los demás, pero indefinidamente.
CDMA (Acceso Múltiple por División de Código), es completamente diferente de las demás técnicas de reparto que hemos estudiado hasta ahora. Algunas de éstas se han basado en la división del canal en bandas de frecuencia y la asignación de ella estáticamente (FDM) o por demanda (Multiplexión por división en longitud de onda), con el propietario usando indefinidamente la banda. Otras reparten el canal en ráfagas, dando estáticamente a las estaciones el canal completo (TDM con ranuras de tiempo fijas) ó dinámicamente. El CDMA permite que cada estación transmita en el espectro completo de frecuencia todo el tiempo. Las transmisiones múltiples simultáneas se separan usando la teoría de codificación. El CDMA también relaja el supuesto de que los marcos en colisión se alteran completamente. En cambio, supone que las señales múltiples se suman linealmente. El CDMA es cuando todos están en el centro del salón hablando al mismo tiempo, pero hablando cada pareja un lenguaje distinto. La pareja de franco parlantes sólo se encuentra en el francés, rechazando todo lo demás como ruido. Por tanto, la clave de CDMA es ser capaz de extraer la señal deseada mientras se rechaza todo lo demás como ruido aleatorio.
Las siglas TDMA significan acceso múltiple por división de tiempo, donde una pequeña cantidad de conversación de voz, perteneciente a un usuario es transmitida luego una segunda porción de información perteneciente a otro usuario así hasta completar otro ciclo terminando cuando todos los usuarios hayan terminado de transmitir.
Considerando un sistema TDMA con 5 usuarios para cada banda de frecuencia alternando 10 milisegundos, por lo que cada usuario tendrá un rango de 2 milisegundos.
Además de aumentar la eficiencia de la transmisión TDMA ofrece una adaptación fácil a la transmisión de datos así como la comunicación de voz. TDMA tiene la capacidad de llevar índices de datos de 64 Kbps a 120 Mbps (extendible en múltiplos de 64 Kbps).
Una de las desventajas de TDMA es que cada usuario tiene una ranura de tiempo predefinida y también TDMA esta sujeto a distorsión multidireccional.
Una forma de conseguir minimizar está de desventaja es el de poner un limite de tiempo en el sistema.
11 ESTRUCTURA BÁSICA DE UNA ESTACIÓN TERRENA.
El término de estaciones terrenas se emplea de formas indistinta para indicar todo el equipo terminal que se comunica con el satélite desde tierra sin importar si esta fija o móvil y se clasifican en diferentes categorías dependiendo del servicio:
Las estaciones fijas son las que se encuentran situadas en un determinado punto y no se mueven, el único cambio que se permite es el de apuntar hacia otro satélite si la antena lo permite.
Las estaciones terrenas móviles son las que tienen capacidad de enlazarse con el satélite cuando están fijas o en movimiento, a este tipo de estaciones pertenecen las que operan en banda L y que se instalan en vehículos, aviones y barcos.
Las estaciones terrenas móviles transportables tiene la característica de que pueden transportarse en medios terrestres, aéreos o marítimos hasta el lugar que se requiere el enlace al satélite que generalmente son de dimensiones pequeñas y que no trabajan en movimiento.
En cuestión de las estaciones móviles transportables se contó con tres generaciones, en la primera se tenía por separado la antena, el equipo de transmisión y la planta generadora de energía eléctrica, en la segunda se incluye equipo de transmisión con la planta generadora y con la antena aparte, para la tercera el equipo se monta sobre una unidad.
Figura 13
12 CONFIGURACIÓN DE UN SISTEMA DE COMUNICACIONES VÍA SATÉLITE.
Por lo general en una estación terrena la misma antena se utiliza tanto para transmitir como para recibir si es que la aplicación así lo requiere por lo que los bloques de transmisión y recepción están conectados por medio de un dispositivo llamado duplexor. A continuación se muestra el diagrama a bloques de una estación terrena en el cual no se emplea la redundancia de ningún modulo, pero en la practica es necesaria por cuestiones de continuidad en una transmisión.
Diagrama a bloques de una estación terrena. Figura 14
13 SISTEMA DE TRANSMISIÓN
Cuando se transmite una señal de información ya sea analógica o digital vía satélite típicamente se inicia con un proceso de modulación en los módems posteriormente se aumenta la frecuencia de la señal modulada a través de los conversores de subida, posteriormente cual aumente la potencia de la señal por medio de los HPA’S, ya modulada la señal, aumentada en potencia y frecuencia es radiada en dirección del satélite por la entena transmisora. El equipo para la transmisión es:
Módem o Encoder.
Convertidor de subida.
Amplificador de alta potencia (HPA).
Antena transmisora.
Módems:
Los módems generan la señal modulada a transmitirse, conjuntado las características deseadas de la señal moduladora y la portadora, la primera es en formato digital proveniente de las fuentes de información y la segunda señal, la portadora, generalmente es una señal senoidal generada internamente en el módem. La señal portadora es modulada digitalmente en fase (PSK) empleando en la mayora de los casos la QPSK. Por lo que son necesarias las siguientes características.
Pasos de sintonía: Este parámetro se refiere a la frecuencia mínima que es capaz nuestro módem de registrar o sintonizar, generalmente son de 125 Hz.
Velocidad de información: Es la cantidad de bits de información que se acepta en el dispositivo en que se recibe la información entre el tiempo total que se requiere para la aceptación de los bits.
FEC (Forward Error Correction): En este tipo de corrección de error se agrega a la señal de información como una serie de bits que corresponden a un código, se asignan Fec’s de ¾, lo que quiere decir que por cada 4 bits que se envían 3 bits son de información y un bit es de detección de error.
Roll Off: Es una característica de la calidad de los filtros pasa-bajos de los módems para una selección adecuada de la frecuencia de corte.
BER (Bit Error Rate): La tasa de bits erróneos se define como la relación entre la cantidad de bits que se reciben incorrectamente contra los bits que se transmiten.
14 CONVERTIDOR DE SUBIDA
El convertidor de subida es el equipo que eleva la frecuencia de la señal modulada desde el rango de frecuencia intermedia hasta el de radio frecuencia ya sea banda KU o C.
AMPLIFICADORES DE ALTA POTENCIA (HPA):
El amplificador le proporciona a la señal modulada la potencia necesaria para llegar al satélite con el nivel adecuado para lograr el enlace, los circuitos amplificadores de alta potencia son usados de acuerdo ala potencia de transmisión y al ancho de banda que manejan. Existen tres tipos de principales de amplificadores de alta potencia que son el TWT (Traveling Wave Tube), el SSPA (Solid State Power Amplifier) y la válvula KLISTRON.
PARÁMETRO |
KLISTRON |
TWT’S |
FET’S |
Circuito de amplificación |
Klystron |
TWT |
GaAs FET |
Potencia de salida |
Alta |
Alta |
Baja |
Tamaño |
Grande |
Mediano |
Pequeño |
Peso |
Grande |
Mediano |
Pequeño |
Ancho de banda |
Decenas de MHz |
Cientos de MHz |
Cientos de MHz |
Enfriamiento |
Aire para Kw |
Aire para Kw |
Normal |
Voltaje de la fuente de poder |
Mediano |
Alto |
Bajo |
Tabla 4
Gracias a los TWT se tiene un ancho de banda de amplificación grande además de que es útil para la transmisión de varias portadoras. Por otra parte el Klystron tiene un ancho de banda pequeño pero su frecuencia es ajustable a cualquier frecuencia reservada para transmisión.
15 ANTENAS
Una antena parabólica tiene la propiedad de reflejar las señales que llegan a ella y concentrarlas como si fuera un lente en un punto en común llamado foco, así mismo si las señales provienen del foco este las refleja y las concentra en un haz muy angosto de radiación. Este foco coincide con el foco geométrico del paraboloide, el tipo de alimentador define la ganancia final de la antena y las características de los lóbulos.
TECNOLOGÍA DE LAS ANTENAS.
Las antenas deben de cumplir con ciertos requisitos para recibir las señales débiles que llegan procedentes del satélite las cuales son;
TIPOS DE ANTENA.
Hay varios tipos de alimentación de una antena parabólica pero los más utilizados son frontal, Cassegrain y offset.
Figura 15
Las antenas de alimentación frontal tienen una estructura simple y de bajo costo se emplea principalmente para la recepción, sin embargo sus características de ganancia, eficiencia y directividad no son muy buenas. La antena cassegrain es mucho más eficiente ya que la ganancia es mayor se utiliza en transmisión y recepción de televisión, señales de telefonía y datos, su configuración involucra a un segundo reflector o sub reflector, así como el alimentador. La antena offset emplea una sección del plato parabólico y la apertura del alimentador se gira para qué apunte hacia ella, es decir que los ejes del reflector no coinciden con el paraboloide, con estas características la eficiencia, directividad y ganancia aumentan.
Las características más importantes en las antenas transmisoras son:
Ganancia de antena.
Patrón de radiación.
PIRE (Potencia Isotropita Radiada Efectiva)
Antes de pasar a la descripción del proceso de apuntamiento de las antenas parabólicas utilizadas en la recepción de señales vía satélite, conviene conocer las técnicas básicas utilizadas.
La orientación de la antena de una estación terrena hacia un satélite geoestacionario se realiza ajustando dos ángulos, en elevación y azimut; los valores de estos ángulos dependen de la posición geográfica de la estación –en latitud y longitud- y de la ubicación en longitud del satélite. Tomando como referencia al eje de simetría del plato parabólico, que coincide con su eje de máxima radiación, el ángulo de elevación es aquel formado entre el piso y dicho eje de simetría dirigido hacia el satélite como se muestra en la figura siguiente.
Figura 16
DEFINICIÓN DEL ÁNGULO DE ELEVACIÓN DE LA ANTENA DE UNA ESTACIÓN TERRENA.
Por su parte, el ángulo de azimut es la cantidad en grados que hay que girar la antena en el sentido de las manecillas del reloj –con relación al norte geográfico de la tierra- para que ese mismo eje de simetría –prolongado imaginariamente- pase por la posición en longitud del satélite.
DEFINICIÓN DEL ÁNGULO DE AZIMUTH DE UNA ESTACIÓN TERRENA.
Dependiendo de la localización de la estación terrena con respecto a la posición del satélite, el ángulo de azimut está dado por:
CASO 1 ESTACIÓN EN EL HEMISFERIO NORTE
Satélite al Oeste de la Estación
Az = 180° + A’
CASO 2 ESTACIÓN EN EL HEMISFERIO SUR
Satélite al Este de la Estación
Az = A’
Para calcular el ángulo de azimut basándose en lo mencionado anteriormente tenemos:
A’ = Tan-1 { Tan (LONG SAT – LONG E/T) }
{SEN (LAT E/T) }
Para calcular la elevación, primero tenemos:
A = Tan-1 { HCS – R cos d }
{ R sen d }
Donde:
HCS = Distancia promedio del centro de la Tierra al Satélite = 42164.2 km
R = Radio Promedio de la Tierra = 6378.155 km
Cos d = { Cos (Latitud E/T) (Cos (Long SAT – Long E/T)) }
Y para el cálculo de elevación tenemos:
E = A - d
Ejemplo:
Calcular las coordenadas de azimut y elevación a las que se tiene que poner una antena en Panamá para orientarse al Satélite Satmex V, teniendo en cuenta que las coordenadas de la estación transmisora en Panamá son las siguientes:
Latitud de la Estación Terrena = 8.58° N
Longitud de la Estación Terrena = 79.32° W
Longitud del Satélite = 116.8° W
Se calcula primero el ángulo el Cos d
Cos d = { Cos (Latitud E/T) (Cos (Long SAT – Long E/T)) }
Sustituyendo valores tenemos:
Cos d = Cos (8.58) Cos (116.8 – 79.32)
= 0.9888 (0.7935)
= 0.7840
d = Cos-1 0.7840
d = 38.372°
Por lo tanto:
A = Tan-1 { 42164.2 – (6378.155)(0.7840) }
{ 6378.155 (Sen 38.372) }
A = Tan-1 { 37163.726 }
{ 3959.33 }
A = 83.919°
Sustituyendo:
E = A - d
E = 83.919 – 38.372
E = 45.547°
Y el azimut, sabiendo que el satélite está al Oeste de la estación:
Az = 180 + A
Az = 180 + { Tan-1 { Tan (116.8 – 79.32) } }
{ Sen (8.58) }
Az = 180 + { Tan-1 { Tan 37.48 } }
{ 0.149 }
Az = 180 + 79.00
= 259.0°
Se a descrito el método matemático para hacer el apuntamiento de antena, pero a continuación se hace mención de cómo hacerlo en forma gráfica.
APUNTAMIENTO EN FORMA PRÁCTICA
Después de que ya se tiene los ángulos de azimut y elevación obtenidos para forma matemática o gráfica, pues se procede a realizar el apuntamiento en forma práctica.
En la practica, los métodos más empleados para orientar una antena parabólica en azimut son el solar, el de estrella polar, y el de brújula, siendo este ultimo el más popular y el que se sugiere utilizar, para esto es necesario que la antena esté emplazada en un lugar donde no exista ningún obstáculo para recibir la señal del satélite.
Tras ser montada la antena, la cuál para facilitar su orientación deberá ser montada siempre en dirección hacia el sur, se puede apuntar de forma aproximada con la ayuda de la brújula, sin embargo la falta de precisión de la medida dada por la brújula hace que el punto calculado no sea más que una aproximación. Así mismo, al hacer la medida del azimut utilizando la brújula, debe situarse lejos de cualquier objeto metálico, por ejemplo el mástil de la antena, que pueda perturbar la indicación de la aguja.
Dada la mayor precisión del ángulo de elevación, lo más conveniente es ajustar primero éste ángulo. Con la ayuda de un receptor de TV (para el caso de servicios de Televisión), o de un analizador de espectros, encontramos el máximo nivel de señal para éste punto, y posteriormente se gira la antena ligeramente hacia el Este según el azimut calculado, hasta observar que se recibe un máximo de señal.
Una vez localizado el máximo, se fijará la parábola y se hará un nuevo ajuste del ángulo de elevación, hasta conseguir un nuevo máximo en el nivel de recepción. Finalmente, los procesos de ajuste de azimut y elevación se pueden repetir a fin de optimizar el apuntamiento.
INSTRUMENTOS UTILIZADOS EN LA ORIENTACIÓN
Después de que ya se han determinado los ángulos para orientar la antena, es necesario conocer un poco de los equipos que nos ayudarán para realizar el apuntamiento en forma práctica, como son el inclinómetro, la brújula, el analizador de espectros y el equipo de recepción de satélite, y a continuación hacemos una breve descripción de algunos de ellos y como nos ayudan a realizar el apuntamiento.
LA BRUJULA
Para medir el ángulo de azimut de una antena, el instrumento que debe utilizarse es la brújula, la cuál se puede observar en la figura siguiente.
La brújula es un dispositivo magnético, que siempre nos indica la dirección de las líneas de fuerza del campo magnético terrestre, o sea de Norte a Sur. Ahora, teniendo en cuenta, por una parte, la ley de las atracciones y las repulsiones magnéticas y, por otro lado, que el polo norte de una brújula se dirige hacia el polo norte geográfico de la Tierra, se deduce que el polo magnético de la Tierra que se encuentra en el Norte de la misma es el polo sur magnético, ya que atrae al polo norte de la brújula. Recíprocamente, el polo magnético que se encuentra en el sur geográfico es el polo norte magnético, ya que atrae el polo sur de la brújula.
Sin embargo las brújulas no apuntan directamente al Norte, sino que en realidad la dirección de la brújula forma un cierto ángulo con el meridiano terrestre. Al ángulo que forma la brújula con el meridiano terrestre se le llama declinación magnética en el lugar considerado. Por lo que al hacer el apuntamiento de la antena es necesario considerar éste valor.
Existen ciertos lugares donde la declinación magnética es igual a cero; por ejemplo, en algunas zonas del estado de Florida, del caribe y de América del sur. En estos lugares el azimut de una antena queda perfectamente definido por la orientación de la brújula, sin necesidad de efectuar ningún ajuste. Por otra parte, la declinación magnética puede tomar valores de 100° o más, como ocurre en el archipiélago de Parry, Canadá. En el continente americano, entre las latitudes 60° S y 55° N, esta declinación varia entre 0° y 35° E u O, y en el caso particular de la Republica Mexicana, el intervalo de variación esta entre 5° E y 14° E.
Para orientar antena parabólica en azimut es preciso restar o sumar la declinación magnética valor leído en la brújula, dependiendo de sí la inclinación es hacia el oeste o el este, para localizar el verdadero azimut geográfico. Existen datos publicados de la declinación magnética por zonas geográficas en las llamadas “cartas de líneas isogonicas” y debido a que los polos magnéticos norte y sur varían ligeramente de posición con el tiempo, existen organismos nacionales e internacionales que realizan nuevas mediciones cada tres o cinco años, para actualizar dichas cartas.
En la siguiente tabla se muestran los valores de declinaciones magnéticas de algunos lugares de la República Mexicana.
Ciudad de México |
6.8 |
Guadalajara |
8.1 |
Monterrey |
7.7 |
Ciudad Juárez |
10.9 |
Puebla |
6.6 |
Tijuana |
13.7 |
Tampico |
6.8 |
Torreón |
8.8 |
Mexicali |
13.5 |
Chihuahua |
10.1 |
Acapulco |
6.6 |
San Luis Potosí |
7.5 |
Veracruz |
5.9 |
Hermosillo |
11.6 |
Mérida |
3.2 |
Tabla 5
EL INCLINÓMETRO
Para el caso de encontrar el ángulo de elevación de una antena, el instrumento utilizado es un inclinómetro, y una de las formas de realizar la medida consiste en colocar el listón sobre el plato y el inclinómetro encima. Dado que el ángulo medido y la elevación difieren en 90°, el ángulo medido deberá ser:
Figura 17
Ángulo medido = 90° - ángulo de elevación
Ya que se ha orientado una antena, colocándola en los ángulos de azimut y elevación con la ayuda de los instrumentos ya mencionados, como sabemos si ya podemos captar señal, y además saber si ésta es óptima, por lo que es necesario conectar un receptor a la salida de la antena, por lo que se puede ver que el receptor es igual de importante que el subsistema de antena, y por esto vamos a hacer una descripción mas detallada de la parte receptora.
17 EL RECEPTOR
La parte de recepción como se mencionó anteriormente, es la que nos va a indicar que tan bueno ha sido nuestro apuntamiento de antena con el satélite, por lo que este equipo toma una gran importancia en este proceso. Podemos hablar en el caso de que el lado receptor sea una Estación Terrena o un caso más sencillo, que se trate de un receptor de TV. Los equipos básicos necesarios para recibir una señal de satélite son: Un LNB, y el receptor de satélite en sí.
El LNB es un equipo que en un solo bloque realiza las funciones de un LNA y un Down Converter que se utilizan en una Estación Terrena, ya que la señal que llega a la antena, al pasar por el LNB, la amplifica manteniendo fija la relación señal a ruido, y además la convierte a una frecuencia de FI que está en el rango de 950 a 1450 MHz.
Y el proceso de demodulación y de decodificación de la señal que se hacían en dos bloques distintos en la Estación Terrena, se lleva acabo enteramente en el receptor de TV vía satélite.
En la siguiente figura se muestra la configuración básica de un sistema de recepción.
18 Procesamiento de la señal de La Red Edusat
Para poder transmitir la señal de La Red Edusat, ésta debe pasar por una serie de procesos en el transmisor que permiten ordenar la información en una trama de bits. Este proceso se realiza empleando la compresión digital, multiplexión, codificación, decodificación, encriptación, modulación y desmodulación mediante el uso de la tecnología Digicipher I y II. El siguiente diagrama muestra el proceso que transforma a la señal de La Red Edusat, a una forma adecuada para transmitirse vía satélite, la primera etapa se realiza en el telepuerto de la DGTVE, y la segunda etapa la realiza el decodificador.
DIAGRAMA A BLOQUES DEL PROCESAMIENTO DE LA SEÑAL
Equipo de recepción de La Red Edusat. Figura 18
El equipo está conformado por los siguientes elementos:
Observarse en el televisor. Permite además seleccionar los canales de la
Red Edusat.
La configuración básica que se tiene en un control maestro para la conexión de video se muestra en la siguiente figura:
Figura 19
En el diagrama anterior se muestra solamente la configuración en video, la configuración en audio es la misma, solo que se maneja por dos canales (izquierdo y derecho).
19 VIDEO ANÁLOGO
En un sistema análogo, la información se transmite mediante alguna variación infinita de un parámetro continuo como puede ser la tensión en un hilo o la intensidad de flujo de una cinta. En un equipo de grabación, la distancia a lo largo del soporte físico es un elemento análogo continuo más del tiempo. No importa en que punto se examine una grabación a lo largo de toda su extensión: se encontrará un valor para la señal grabada. Dicho valor puede variar con una resolución infinita dentro de los límites físicos del sistema.
Figura 20
Variación infinita de un parámetro continúo en función del tiempo
Dichas características suponen la debilidad principal de las señales análogas. Dentro del ancho de banda permisible, cualquier forma de onda es válida. Si la velocidad del soporte no es constante, una forma de onda que sea válida pasará a ser otra forma de onda también válida; no es posible detectar un error de base de tiempos en un sistema análogo. Además, un error de tensión tan sólo hace variar un valor de tensión válido en otro; el ruido no puede detectarse en un sistema análogo.
Se puede tener la sospecha de que existe ruido, pero no se sabe qué proporción de la señal recibida corresponde al ruido y cual es la señal original. Si la función de transferencia de un sistema no es lineal, se producirán distorsiones, pero las formas de onda distorsionadas aún serán válidas; un sistema análogo es incapaz de detectar distorsiones.
Es característico de los sistemas análogos el hecho de que las degradaciones no puedan ser separadas de la señal original, por lo que nada pueda hacerse al respecto. Al final de un sistema determinado la señal estará formada por la suma de todas las degradaciones introducidas en cada etapa por las que haya pasado. Esto limita el número de etapas por las que una señal puede pasar sin que quede inutilizable.
El comité nacional de estándares de televisión estableció la norma NTSC (National Television Standards Committee), como norma establece un sistema de 525 filas entrelazadas a 30 imágenes por segundo (es decir, a una frecuencia de 60 Hz para el vertical y 15750hz para la frecuencia horizontal). Como en el caso de la norma PAL/SECAM, el 8% de las filas se utiliza para sincronizar el receptor. De esta manera, dado que la norma NTSC muestra un formato de imagen de 4:3, la resolución que se muestra en realidad es de 640 x 480. Se utiliza primordialmente en los Estados Unidos, Canadá, Groenlandia, México, Cuba, Panamá, Japón, las Philipinas, Puerto Rico, y parte de Sur-América. La imagen de televisión para dar una sensación de movimiento se tienen que trasmitir 30 cuadros o imágenes los cuales se dividen en dos campos y se transmiten entrelazados dando como resultado su frecuencia vertical de 60, al NTSC se le conoce como un sistema de 525 líneas y 60 campos. El sistema NTSC fundamentó su ciclo temporal en la frecuencia de oscilación eléctrica de 60 Hz. Hay otros países con frecuencia de 50Hz, y se hizo lógico desarrollar un sistema de televisión sobre la base de 50 ciclos.
Mas de la mitad de los países del mundo se adhieren a uno de los dos sistemas de 625 líneas, y 25 cuadros: SECAM (Systèm Électronique pour Couleur avec Mémoire) o PAL (Phase Alternating Line).
SECAM se utiliza básicamente en Francia y los países que antes pertenecían a la antigua Unión Soviética. PAL se utiliza en la mayor parte de Europa Occidental exceptuando Francia y en Argentina.
Figura 21
Las 100 líneas extra en los sistemas PAL y SECAM permiten mayor detalle y claridad en la imagen de video, pero los 50 campos por segundo, comparados con los 60 del sistema NTSC producen cierto "parpadeo" a veces aparente. Aún así como 25 cuadros por segundo están muy cerca del estándar internacional para cine de 24 cuadros por segundo, el cine se transfiere más fácilmente a PAL Y SECAM. En NTSC una película de 24 cuadros por segundo debe ser convertida a 30 cuadros. Esto es efectuando un barrido por duplicado (escaneo) algunos fotogramas de la película a intervalos cíclicos.
Esto solía ser un problema pero con la tecnología digital actual es un proceso simple y limpio asumiendo que se tenga acceso a los equipos adecuados. Además hoy existen televisores y videograbadoras multi-estándar que permiten cambiar con un switch entre uno y otro sistema. Se debe recordar que todas las normas vigentes de televisión en la actualidad, NTSC (National Television Systems Comitee), PAL (Phase Alternation Line) y SECAM (Systeme Electronique Color Avec Memoire) se derivan, directa o indirectamente, de los estándares en blanco y negro definidos en los años 40 y 50. Estas primeras emisiones utilizaban un barrido progresivo (todas las líneas de la imagen se barren consecutivamente, como se puede ver en la Figura).
Figura 23
Representación simplificada del barrido progresivo
Por razones de orden práctico (radiaciones debidas a fugas magnéticas de los transformadores de alimentación, filtrados imperfectos), fue indispensable utilizar una frecuencia de imagen que estuviera relacionada con la frecuencia de la red (60 Hz en EE.UU., 50 Hz en Europa) para minimizar el efecto visual de estas imperfecciones; la frecuencia de exploración fue, por tanto, de 30 imágenes/s en EE.UU. y de 25 imágenes/s en Europa. Estas primeras imágenes presentaban un parpadeo bastante molesto (también llamado flicker de campo). Tiempo después la captación de la imagen se hizo electrónica, haciendo que las definiciones alcanzaran un mayor número de líneas, esto gracias al barrido entrelazado.
Barrido entrelazado.
Consiste en la transmisión de un primer campo compuesto por las líneas impares de la imagen y a continuación un segundo campo formado por las líneas pares, como se ve en la figura 23. Esta forma de barrer la imagen, permite duplicar la frecuencia de refresco de la pantalla (50 o 60 Hz, en lugar de los 25 o 30 Hz) sin aumentar el ancho de banda para un número de líneas dado. Como se ve en la figura 24, el barrido entrelazado se obtiene utilizando un número impar de líneas, por ejemplo 525 o 625 líneas que constituyen un cuadro, de manera que el primer campo comience en una línea completa, terminando en la mitad de otra línea, y el segundo campo comience en la mitad de una línea y finalice con una línea completa. En los países donde la frecuencia de la red es de 60 Hz, la velocidad de cuadro es de 30 por segundo y, por consiguiente, la frecuencia de campo es de 60 Hz.
Figura 23
Cuadro completo
Barrido entrelazado 2:1
Debe haber un número impar de líneas en cada cuadro Figura 24
Frecuencias de exploración horizontal y vertical.
La velocidad de campo de 60 Hz es la frecuencia de exploración vertical. Este es el ritmo con que el haz electrónico completa su ciclo de movimiento vertical, desde la parte superior hasta la parte inferior de la pantalla para volver nuevamente a la parte superior. El número de líneas de exploración horizontal de un campo es la mitad del total de las 525 líneas de un cuadro completo (en el sistema NTSC), ya que un campo contiene la mitad de las líneas. Esto da por resultado 262.5 líneas horizontales para cada campo. Como el tiempo que corresponde a un campo es 1/60s y cada campo contiene 262.5 líneas, el número de líneas por segundo es:
262.5 x 60 = 15750 líneas/s
Esta frecuencia de 15750 Hz es la velocidad con que el haz electrónico completa su ciclo de movimiento horizontal de izquierda a derecha y regresa nuevamente a la izquierda. El tiempo durante el cual se realiza la exploración de una línea horizontal es:
1/15750 » 63.5 ms
Existen dos procesos simultáneos en la exploración, uno mueve el haz en sentido horizontal y el otro en sentido vertical; ambas son exploraciones lineales y se efectúa a una velocidad constante.
Para que estas exploraciones se lleven a cabo es necesario que el haz de exploración se le aplique una sincronización o pulsos que manejen la velocidad y la posición en el haz horizontal y vertical. Para eliminar la distorsión de la imagen debido a la velocidad inicial y a la velocidad final de una línea, al igual que la aceleración y desaceleración del retorno de haz se introduce a cada una de las líneas pulsos de borrado o blanking.
Este pulso trabaja moviéndose el haz de electrones horizontalmente y cada una de sus partes se mide en microsegundos, cuando el haz se desplaza a lo largo de la pantalla debe hacerse con una velocidad constante, no así al inicio y al termino del trazo donde la velocidad es de cero debido a que el haz inicia con un aumento de velocidad de cero a la normal y termina de la velocidad normal a cero.
Esto ocasiona que los extremos de la pantalla los elementos de imagen estén más juntos que en el resto de la pantalla, para eliminar esta distorsión se suprime la información de imagen de estos lados mediante el blancking horizontal.
Después de esto el haz describe la información de la primera línea durante 63.3 ms hasta llegar al siguiente lado de la pantalla donde el front porch cortara la señal del video activo por 1.5 ms. Hasta detener el haz y empezar el regreso hacia ala parte izquierda de la pantalla.
Este proceso la realiza la sincronía horizontal y el tiempo que dura el retroceso hasta llagar del otro lado es de 4.7.
Al llegar al lado izquierdo se detiene el haz y empieza a describir una nueva línea, aquí se inicia nueva mente el ciclo con la parte del pulso llamada breezeway la cual se indica que se describe una línea con una referencia de color llamada burts y así hasta completar las 525 líneas.
BLANCKING VERTICAL
Este pulso trabaja moviendo el haz de electrones desde la parte inferior hasta la superior de la pantalla este movimiento lo realiza e en el tiempo de 21 líneas.
Así como el blancking horizontal el vertical suprime la información de la imagen en la parte inferior y en la parte superior debido a las variaciones de la velocidad del haz al descender y ascender por lo que también es necesario borrarlo.
El haz empieza a moverse horizontalmente desde la izquierda de la pantalla y no describe la información o no permite que se empiece a describir la primera de las 525 líneas horizontales que forman a un cuadro de imagen hasta después de que transcurren 4.7 ms. El barrido vertical permite que el haz cubra la pantalla con las 525 líneas, el tiempo de este barrido son los que determinan la relación de aspecto de las pantallas también la relación de estas frecuencias determina el número de líneas horizontales que habrá en cada cuadro de imagen.
VIT’s: Vertical interval test
VIR’s: vertical interval reference.
VITC: vertical interval time code.
Figura 26
22 Las señales de color
El sistema para la televisión en color es el mismo que para la televisión monocromática excepto que también se utiliza la información de color. Esto se realiza considerando la información de imágenes en términos de rojo, verde y azul. Cuando es explorada la imagen en la cámara, se producen señales de video separadas para la información de rojo, verde y azul de la imagen.
Sin embargo, para el canal estándar de 6 MHz de televisión, las señales de video de rojo, verde y azul son combinadas de modo que se forman dos señales equivalentes, una correspondiente al brillo y otra para el color. Específicamente las dos señales transmitidas son las siguientes:
Señal de luminancia.
Contiene solo variaciones de brillo de la información de la imagen, incluyendo los detalles finos, lo mismo que en una señal monocromática. La señal de luminancia se utiliza para reproducir la imagen en blanco y negro, o monocroma. La señal de luminancia o Y se forma combinando 30% de la señal de video roja (R), 59% de la señal de video verde (G) y 11% de la señal de video azul (B), y su expresión es:
Y = 0.30R + 0.59G + 0.11B
Los porcentajes que se muestran en la ecuación corresponden a la brillantez relativa de los tres colores primarios (ver Anexo 1). En consecuencia, una escena reproducida en blanco y negro por la señal Y tiene exactamente la misma brillantez que la imagen original. La Figura 27 muestra como el voltaje de la señal Y se compone de varios valores de R, G y B. La señal Y tiene una máxima amplitud relativa de unidad, la cual es 100% blanca. Para los máximos valores de R, G y B (1V cada uno), el valor de brillantez se determina de la siguiente manera:
Y = 0.30(1) + 0.59(1) + 0.11(1) = 1 lumen
Los valores de voltaje para Y que se ilustran en la Figura son los valores de luminancia relativos que corresponden a cada color.
Obtención de la señal Y
Y = 0.30R + 0.59G + 0.11B
Figura 28
Valores de luminancia relativa
Señal de croma: La señal de croma es una combinación de las señales de color I y Q. La señal I o señal de color en fase se genera combinando el 60% de la señal de video en rojo (R), 28% de la señal de video en verde (G) invertida y 32% de la señal de video en azul (B) invertida, y se expresa como:
I = 0.60 R - 0.28 G - 0.32B
La señal Q o señal de color en cuadratura se genera combinando el 21% de la señal de video en rojo (R), 52% de la señal de video en verde (G) invertido y 31% de la señal de video en azul (B), y su expresióoacute;n es:
Q = 0.21R - 0.52G + 0.31B
Las señales I y Q se combinan para producir la señal C y debido a que las señales I y Q están en cuadratura, la señal C o croma es la suma vectorial de estas, y su expresión es:
Las amplitudes de las señales I y Q son, en cambio, proporcionales a las señales de video R, G y B. en la siguiente figura se muestra la rueda de colores para la radiodifusión de televisión. Las señales R, G y B se utilizan en la mayor parte de los receptores de televisión a color para demodular las señales de video R, G y B. En el receptor, la señal C reproduce colores en proporción a las amplitudes de las señales I y Q. El matiz (o tono del color) se determina por la fase de la señal C y la profundidad o saturación es proporcional a la magnitud de la señal C. La parte exterior del círculo corresponde al valor relativo de 1.
Representación de los colores en NTSC Figura 29
Así se consigue que los sistemas de color y monocromáticos sean completamente compatibles.
23 VIDEO DIGITAL
La digitalización de una señal de video tiene lugar en tres pasos:
Muestreo. Sea una señal análoga e (t) como la representada en el Figura 33. Se toman muestras breves de e (t) cada 15' a partir de t=0. En 360' se habrán explorado 24 muestras. El resultado será una serie de impulsos cortos cuyas amplitudes siguen a la señal análoga. A este tren de impulsos modulados en amplitud por la señal análoga se le denomina señal PAM (Pulse Amplitude Modulation o Modulación por Amplitud de Pulsos).Este muestreo puede representarse por la multiplicación de la señal análoga e (t) por un tren de impulsos (t), dando por resultado la señal de la parte inferior de la figura
Muestreo de una señal análoga e(t) por un tren de impulsos u(t)
Ahora bien, una señal de video está compuesta por un gran número de frecuencias formando un espectro continuo que va desde 0 a unos 5 MHz como se representa en la figura 31:
Figura 31
Banda base de la señal de video
Al muestrear esta señal, cada frecuencia de video aparecerá en las bandas laterales superiores e inferiores de cada armónico de la frecuencia de muestreo, incluyendo naturalmente la banda base, esto es, el armónico cero.
El espectro de la señal muestreada se presentará por tanto, como se ve en la siguiente figura. De esta misma figura se deduce una condición elemental que debe cumplirse: que fo>2fs para que la banda lateral inferior de la frecuencia de muestreo y la banda base no se superpongan.
Figura 32
Cuando la frecuencia de muestreo es fo<2fs
Otro motivo de "aliasing" se produce cuando el filtro no está bien calculado y permite el paso de frecuencias de la banda lateral inferior, aunque no estén solapadas con la banda base.
Cuando la frecuencia de corte del filtro PB es superior a fo-fs Figura 33
Cuantificación. Así se denomina al proceso mediante el cual se atribuye a cada muestra un valor de amplitud dentro de un margen de niveles previamente fijado. Este valor se representa por un número que será convertido a un código de ceros y unos en el proceso de codificación.
Por razones de facilidad en los cálculos, el número de niveles se hace coincidir con una potencia de dos y los impulsos de la señal PAM se redondean al valor superior o inferior según sobrepasen o no la mitad del ancho del nivel en que se encuentran.
El error que se produjo con estas aproximaciones equivale a sumar una señal errónea a los valores exactos de las muestras, como se ve en la siguiente figura
Error de cuantificación Figura 34
Esta señal errónea aparecerá en el proceso de recuperación después de la decodificación digital-análoga, en forma de ruido visible. Se habla así de "ruido de cuantificación" que dependerá obviamente del número N de niveles empleados en el proceso. Cuantos más niveles existan menor será el ruido generado. La relación señal/ruido de cuantificación es:
De cuyo resultado se sacan las siguientes conclusiones:
Es evidente que usando codificación binaria resulta N=2m donde m=número de bits, por tanto:
La anterior ecuación es valida para la digitalización de una señal monocroma o para cada componente de color. Se adoptaron 8bits para la digitalización de la señal de video, por lo que la relación señal/ruido de cuantificación queda como:
Codificación. La codificación final de la señal de salida de un equipo depende de su aplicación. Puede usarse por ejemplo un código binario puro o un código de complemento a dos para aplicaciones locales. Pero cuando se trata de aplicaciones específicas, la codificación se convierte en un tema trascendente.
Formatos de codificación
Dos planteamientos aparentemente contradictorios se mantienen aún hoy día acerca de la digitalización de la señal de televisión en color:
La codificación de componentes.
Codificación de la señal compuesta Figura 35
Codificación de componentes Figura 36
Codificación de las señales compuestas. Esta propuesta consiste en digitalizar directamente las señales compuestas existentes (NTSC, PAL, SECAM). Con ello persiste el problema de la incompatibilidad de las distintas normas internacionales, aun manteniendo la misma frecuencia de muestreo y codificación. La decodificación devolvería las señales NTSC, PAL o SECAM, respectivamente.
La ventaja fundamental de digitalizar la señal compuesta radica en que el equipo puede incluirse como una unidad mas en los estudios análogos actualmente en servicio, sin necesidad de codificar o decodificar el NTSC, PAL o SECAM.
En la siguiente figura se muestra como opera el tratamiento de imágenes análogas durante la transición de la televisión análoga a digital, para el caso de codificación de señales compuestas.
Transición de análogo a digital de las señales compuestas Figura 36
Pasada la transición, la única ventaja que puede aportar la codificación de señales compuestas es el tratamiento de una señal única de video como ocurre actualmente en los Estudios análogos. Para los casos NTSC y PAL que modulan en amplitud a la sub portadora de color, el fundido, mezcla y encadenado corresponderá a una sencilla multiplicación de todas las muestras por un factor situado entre 0 y 1. Pero en el caso del SECAM, es necesario descomponer primero la señal de video en sus componentes Y, R-Y, B-Y antes de la mezcla. Este problema elimina esta ventaja para el SECAM.
Y en todo caso, cada fuente de video digital tendría que disponer de codificación y decodificación NTSC/PAL/SECAM, lo que representa una degradación de las imágenes por causa de los sucesivos procesos de codificación-decodificación. Así, se concluye que en el horizonte se encuentra la digitalización global de las señales en componentes.
Codificación en componentes. Por este método se digitalizan las tres señales Y, K1(R-Y), K2(B-Y) donde K1 y K2 son factores de ponderación que imponen el sistema digital. Estos factores no tienen los mismos valores que los coeficientes ponderados de NTSC, PAL o SECAM.
La primera y gran ventaja que se deriva de esta codificación es que siendo estas tres señales comunes a todos los sistemas, la compatibilidad puede alcanzarse por regulación internacional de los parámetros de muestreo, cuantificación y codificación. En tal sentido el CCIR (Comité Consultatif International des Radiocommunications o Comité Consultivo Internacional de Radio Comunicaciones) emitió en 1982 la norma 4:2:2 CCIR 601 de televisión digital en componentes.
La segunda ventaja de esta codificación es que una vez alcanzada la digitalización plena de la producción, sólo se requiere un paso final de conversión D/A y una codificación NTSC, PAL o SECAM según el sistema adoptado de transmisión. Se añade a las ventajas ya señaladas que el tratamiento digital en componentes elimina los efectos perturbadores mutuos de luminancia y crominancia a la vez que en edición electrónica desaparecen los problemas derivados de la estructura de 4 y 8 campos NTSC y PAL respectivamente. Sólo habría de tenerse en cuenta la estructura de dos campos entrelazados como en televisión en blanco y negro.
La norma CCIR 601 de televisión digital o norma 4:2:2. Esta norma define los parámetros básicos del sistema de televisión digital que aseguran la mayor compatibilidad mundial.
Se basa en una señal Y, Cr, Cb en el formato llamado 4:2:2 (4 muestreos Y por 2 muestreos Cr y 2 muestreos Cb), con una digitalización sobre 8 bits, con posibilidad de ampliarla a 10 bits para aplicaciones más exigentes.
Cualquiera que sea el estándar de barrido, la frecuencia de muestreo es de 13.5 MHz para la luminancia Y. Para las señales de crominancia Cr y Cb, dado su ancho de banda más limitado se muestrean a la mitad de la frecuencia de la luminancia, es decir, 6.75 MHz. Lo que se corresponde con una definición de 720 muestreos por línea en luminancia y de 360 muestreos por línea de crominancia, cuya posición coincide con la de los muestreos impares de luminancia. Ver la Figura 37.
Posición de los muestreos en el formato 4:2:2 figura 37
Para esta frecuencia de muestreo, el número de muestras por línea es de 864 y 858 para la luminancia y de 432 y 429 para las diferencias de color (sistema de 625 y 525 líneas respectivamente).
La estructura de muestreo es ortogonal, consecuencia de que la frecuencia de muestreo es un múltiplo entero de la frecuencia de líneas.
Las muestras de las señales diferencias de color se hacen coincidir con las muestras impares de la luminancia, o sea 1ª, 3ª, 5ª, etc.
El número de bits/muestra es de 8, tanto para la luminancia como para las señales diferencias de color, lo que corresponde a 28 niveles = 256 niveles de cuantificación.
La luminancia utiliza 220 niveles a partir del 16 que corresponde al nivel de negro, hasta el 235 correspondiente al nivel de blanco. Se acepta una pequeña reserva del 10% para la eventualidad de que ocurran sobre modulaciones.
Cuantificación de la señal de luminancia figura 37
Para las señales diferencias de color se utilizan 224 niveles, que se reparten a ambos lados del cero análogo, que se hace corresponder con el número digital 128. Así pues, la señal variará entre los valores extremos 128 + 112 = 240 y 128 112 = 16, con una reserva de 16 niveles a ambos lados.
Cuantificación de la señal de crominancia figura 38
Dado que las señales Cr y Cb están disponibles simultáneamente en cada línea, la definición vertical es idéntica tanto para luminancia como para crominancia, y se corresponde con el número de líneas útiles del estándar de exploración de partida (480 para el estándar de 525 líneas, 576 para los de 625 líneas).
El flujo bruto resultante es:
(13.5 x 8)+ (2 x 6.75 x 8) = 216 Mbit/s (270 Mbit/s con 10 bits)
Además, la digitalización de la parte útil de la señal de video solo requiere 166 Mbit/s, si se tiene en cuenta la inutilidad de digitalizar los intervalos de supresión del haz (también llamados "blanking") de línea y campo. Por tanto, estos tiempos libres pueden aprovecharse para transportar los canales de sonido digital, así como datos de servicio u otros.
A continuación se reproduce la norma 4:2:2 CCIR 601 en el Cuadro.
Parámetros de la norma 4:2:2
Parámetros |
Sistemas |
|
NTSC 525 líneas 60 campos |
PAL/SECAM 625 líneas 50 campos |
|
1. Señales codificadas |
Y, Cr, Cb |
|
2. Número de muestras por línea completa
|
858 429 |
864 432 |
3. Estructura de muestreo |
Ortogonal, estructura idéntica de todos los campos y cuadros. Las señales Cr y Cb se muestran simultáneamente con las muestras impares de la luminancia (1, 3, 5, etc.) |
|
4. Frecuencia de muestreo
|
13.5 MHz 6.75 MHz |
|
5. Codificación |
Cuantificación lineal. Codificación con 8 bits por muestra para la luminancia y cada señal de crominancia. |
|
6. Número de muestras activas por líneas digital:
|
720 360 |
|
7. Correspondencia entre los niveles de video y de cuantificación:
|
220 niveles de cuantificación. El nivel negro corresponde al número digital 16; el nivel nominal de blanco al número 235. 224 niveles de cuantificación en la parte central del margen de cuantificación. El nivel de video cero corresponde al número 128. |
Tabla 5
Ventajas del video digital. La calidad de reproducción de un sistema digital de video bien diseñado es independiente del medio y depende únicamente de la calidad de los procesos de conversión.
Cuando se copia una grabación digital, aparecen los mismos números en la copia: no se trata de un duplicado, sino de una clonación. Si no es posible distinguir la copia del original, no se habrá producido ninguna perdida en la generación. Las grabaciones digitales pueden copiarse indefinidamente sin que haya pérdida en la calidad.
Una de las mayores ventajas que presenta la tecnología digital es su bajo costo. Si la realización de copias no ocasiona perdidas de calidad, los equipos de grabación no tienen por qué ser mejor de lo necesario. No hay necesidad del consumo de cinta tan grande y costo excesivo que tienen los equipos de grabación análogos. Cuando la información que se ha de grabar adopta la forma de números discretos, estos pueden empaquetarse densamente en un soporte sin pérdida de la calidad. De darse el caso que algunos bits estén defectuosos por causa del ruido o de pérdidas de señal, el sistema de corrección de errores puede restituir el valor original. Las redes de comunicaciones desarrolladas para manejar datos pueden llevar perfectamente video digital acompañado también de audio a distancias indefinidas sin pérdidas de calidad. La difusión de televisión digital emplea estas técnicas para eliminar las interferencias, así como los problemas de atenuación de señales y de recepción de camino múltiple propio de las emisiones análogas. Al mismo tiempo, se hace un uso más eficaz del ancho de banda disponible. Los equipos digitales pueden llevar incorporados equipos de auto diagnóstico. El costo de mantenimiento se reduce.
24 FUNDAMENTOS DE LA COMPRESIÓN DE IMÁGENES
El término compresión de datos se refiere al proceso de reducción del volumen de datos necesarios para representar una determinada cantidad de información. Los datos son los medios a través de los que se transporta la información. Se pueden utilizar distintas cantidades de datos para describir la misma cantidad de información. Por lo tanto, hay datos que proporcionan información sin relevancia. Esto es lo que se conoce como redundancia de los datos. La redundancia de los datos es un punto clave en la compresión de datos digitales.
En la compresión digital de imágenes, se pueden identificar y aprovechar tres tipos básicos de redundancias:
La compresión de datos se consigue cuando una o varias de estas redundancias se reducen o se eliminan.
HISTOGRAMAS DE BRILLO
Las características de brillo de una imagen pueden ser mostradas rápidamente con una herramienta conocida como histograma de brillo. En términos generales, un histograma es una distribución gráfica de un conjunto de números. El histograma de brillo es una distribución gráfica de los niveles de gris de los pixeles en una imagen digital. Proporciona una representación gráfica de cuántos pixeles están en cada franja de niveles de gris. Un histograma se muestra como una gráfica donde en el eje horizontal está el brillo, que va de 0 hasta 255 (para una escala de gris de 8 bits), y en el eje vertical el número de pixeles. El histograma es una conveniente representación fácil de leer de la concentración de pixeles contra el brillo en una imagen. Usando este gráfico se puede ver inmediatamente si una imagen es básicamente oscura o clara y de contraste alto o bajo
REDUNDANCIA DE CODIFICACIÓN
Los histogramas de niveles de gris de una imagen pueden servir para la obtención de códigos que permitan reducir la cantidad de datos necesarios para representar una imagen.
El histograma de una imagen digital con niveles de gris en el rango [0,L-1] es una función discreta p(rk)= nk/n, donde rk es el k-ésimo nivel de gris, nk es el número de pixeles de la imagen con ese nivel de gris, n es el número total de pixeles de la imagen y k=0,1,2,...,L-1.
De forma general se puede decir que p(rk) da una idea del valor de la probabilidad de que aparezca el nivel de gris rk. Si el número de bits empleados para representar cada valor de rk es l(rk), el promedio de bits necesarios para representar cada pixel es:
Es decir, la longitud media de las palabras código asignadas a los valores de los diversos niveles de gris se halla sumando el producto del número de bits empleados para representar cada nivel de gris y la probabilidad de que aparezca este nivel. Así, el número total de bits necesarios para codificar una imagen N x M es NMLmed.
Si se representan los niveles de gris de una imagen mediante un código binario natural de m bits, se logra reducir el término de la derecha de la ecuación a m bits. Es decir, Lmed=m cuando se sustituye m por l(rk). Entonces, se puede extraer la constante m de la sumatoria, dejando solamente la suma de pr(rk) para 0 k L 1, que, naturalmente, es igual a la unidad.
Ejemplo: Una imagen de 8 niveles posee la distribución de niveles de gris que aparece en el Cuadro 3. Si se emplea un código binario de 3 bits (véase el código 1 y l1(rk) en el Cuadro 3) para representar los 8 posibles niveles de gris, Lmed es igual a 3 bits, puesto que l1(rk)=3 bits para todo rk. Sin embargo, si se utiliza el código 2 del Cuadro 3, el número medio de bits necesarios para codificar la imagen se reduce a
Ejemplo de código de longitud variable
rk |
pr(rk) |
Código 1 |
l1(rk) |
Código 2 |
l2(rk) |
r0=0/7=0 |
0,19 |
000 |
3 |
11 |
2 |
r1=1/7 |
0,25 |
001 |
3 |
01 |
2 |
r2=2/7 |
0,21 |
010 |
3 |
10 |
2 |
r3=3/7 |
0,16 |
011 |
3 |
001 |
3 |
r4=4/7 |
0,08 |
100 |
3 |
0001 |
4 |
r5=5/7 |
0,06 |
101 |
3 |
00001 |
5 |
r6=6/7 |
0,03 |
110 |
3 |
000001 |
6 |
r7=7/7=1 |
0,02 |
111 |
3 |
000000 |
6 |
La relación de compresión resultante CR es 3/2.7, es decir, 1.11. Así, aproximadamente el 10% de los datos resultantes al emplear el código 1 es redundante. El nivel exacto de redundancia es:
En el ejemplo anterior, al asignar menos bits a los niveles de gris más probables y más bits a los menos probables, se puede conseguir la compresión de datos. A este proceso se le denomina codificación de longitud variable. Si los niveles de gris de una imagen están codificados de forma que se emplean más símbolos que los estrictamente necesarios para representar cada uno de ellos, entonces se dice que la imagen resultante contiene redundancia de código. En general, la redundancia de código aparece cuando los códigos asignados a un conjunto de niveles de gris no han sido seleccionados de modo que se obtenga el mayor rendimiento posible de las probabilidades de estos niveles.
REDUNDANCIA ENTRE PIXELES
Considérense las imágenes que se muestran en la Figura Como se puede apreciar en la Figura 65, estas dos imágenes poseen histogramas prácticamente idénticos. Puesto que los niveles de gris de estas imágenes no son igualmente probables, se pueden usar códigos de longitud variable para reducir la redundancia que resultaría de una codificación binaria directa o natural de sus pixeles. Sin embargo, el proceso de codificación no alteraría el nivel de correlación entre los pixeles de las imágenes. En otras palabras, los códigos empleados para representar los niveles de gris de una imagen no tienen nada que ver con la correlación entre pixeles. Estas correlaciones resultan de las relaciones estructurales o geométricas entre los objetos de la imagen. muestra los respectivos coeficientes de correlación calculados a lo largo de una línea de cada imagen. Obsérvese la gran diferencia entre los perfiles de las funciones mostradas en la figura 66. Estos perfiles se pueden relacionar cualitativamente con la estructura de las imágenes de la figura 64. Esta relación se destaca particularmente en la Figura 66 derecha, donde la elevada correlación entre los pixeles separados por 45 y 90 muestras se puede relacionar directamente con el espaciado entre los fósforos orientados verticalmente que aparecen en la Figura 64 derecha. Además, los pixeles adyacentes de ambas imágenes están muy correlacionados.
Imágenes de fósforos en diferentes posiciones Figura 39
Histogramas de brillo de las imágenes de arriba Figura 39
Coeficientes de autocorrelación normalizados a lo largo de una línea Figura 40
Estas ilustraciones reflejan otra forma importante de redundancia de los datos (una directamente relacionada con las correlaciones entre los pixeles de una imagen). Puesto que es posible predecir razonablemente el valor de un determinado pixel a partir del valor de sus vecinos, la información que aporta individualmente un pixel es relativamente pequeña. La mayor parte de la contribución visual de un único pixel a una imagen es redundante; podría haberse inferido de acuerdo con los valores de sus vecinos. En relación con estas dependencias entre pixeles se han generado una serie de nombres como redundancia espacial, redundancia geométrica y redundancia interna.
Con el fin de reducir las redundancias entre pixeles de una imagen, la distribución bidimensional de pixeles normalmente empleada para la percepción e interpretación humana debe ser transformada a un formato más eficaz.
COMPRESIÓN DE IMÁGENES SIN PÉRDIDAS
Cuando un conjunto de datos se comprime, como un documento de texto o un dato numérico, se hace siempre para que la descompresión subsecuente produzca el dato original exacto. Si el dato reconstruido no es exactamente igual al original, el documento de texto podría tener caracteres errados, o un computador podría tener unas entradas equivocadas. Debido al tipo de datos que se manejan en estos ejemplos, una aproximación no funciona bien. Para estos casos, los datos deben reconstruirse exactamente igual que su forma original, o el esquema de compresión es inutilizable. El tipo de esquema de compresión donde los datos comprimidos se descomprimen a su forma original exacta se llama compresión sin pérdidas. Está desprovisto de pérdidas, o degradaciones, de los datos.
Se han desarrollado una variedad de esquemas de compresión de imágenes sin perdidas. Muchas de estas técnicas vienen directamente del mundo de compresión de datos digital y se han adaptado meramente para el uso con datos de la imagen digitales.
CODIFICACIÓN DE LONGITUD FIJA
En la codificación de longitud fija, se asignan palabras de código de longitud iguales a cada símbolo en un alfabeto A sin tener en cuenta sus probabilidades. Si el alfabeto tiene M símbolos diferentes (o bloques de símbolos), entonces la longitud de las palabras de código es el entero más pequeño mayor que log2 M.
Dos esquemas de codificación de longitud fija comúnmente usados son los códigos naturales y los códigos Gray, que se muestran en el cuadro 5 para el caso de una fuente de cuatro símbolos. Nótese que en la codificación Gray, las palabras de código consecutivas difieren en un solo bit. Esta propiedad de los códigos Gray puede proveer una ventaja para la detección de errores. Puede mostrarse que la codificación de longitud fija sólo es óptima cuando:
Sólo entonces podría la entropía de la fuente ser igual a la longitud promedio de las palabras código que es igual a la longitud de cada palabra código en el caso de la codificación de longitud fija. Para el ejemplo mostrado en el cuadro 5, la entropía de la fuente y la longitud media de la palabra código es 2, asumiendo que todos los símbolos son igualmente probables. A menudo, algunos símbolos son más probables que otros, donde sería más ventajoso usar codificación de la entropía. Realmente, la meta de un sistema de compresión de imágenes es obtener un conjunto de símbolos con una distribución de probabilidad inclinada, para minimizar la entropía de la fuente transformada.
Códigos de longitud fija para un alfabeto de 4 símbolos
Símbolo |
Código natural |
Código Gray |
a1 |
00 |
00 |
a2 |
01 |
01 |
a3 |
10 |
11 |
a4 |
11 |
10 |
CODIFICACIÓN DE LONGITUD VARIABLE
El método más simple de compresión de imágenes sin pérdidas consiste en reducir únicamente la redundancia de la codificación. Esta redundancia está normalmente presente en cualquier codificación binaria natural de los niveles de gris de una imagen. Dicha redundancia se puede eliminar construyendo un código de longitud variable que asigne las palabras código más pequeñas a los niveles de gris más probables. Existen varios métodos de codificación de longitud variable, pero los mas usados son la codificación Huffman y la codificación aritmética.
Codificación Huffman
La codificación Huffman convierte los valores de brillo de los pixeles de la imagen original en nuevos códigos de longitud variable, basado en su frecuencia de ocurrencia en la imagen. De esta manera, a los valores de brillo que ocurren más frecuentemente se les asignan los códigos más cortos y a los valores de brillo que ocurren con menos frecuencia se les asignan los códigos más largos. El resultado es que la imagen comprimida requerirá de menos bits para describir la imagen original.
El esquema de compresión Huffman comienza mirando el histograma de brillo de una imagen. Con el histograma, la frecuencia de ocurrencia para cada brillo en la imagen está disponible. Ordenando los valores de brillo por sus frecuencias de ocurrencia, se obtiene una lista donde el primer valor se encuentra más a menudo en la imagen, y el último valor se encuentra menos a menudo en la imagen. Con esta lista, el codificador Huffman asigna nuevos códigos a cada valor de brillo. Los códigos asignados son de longitudes variables; los códigos más cortos son asignados a los primeros (más frecuentes) valores m de la lista y, eventualmente, los códigos más largos se asignan a los últimos (menos frecuentes) valores de la lista. Finalmente, la imagen comprimida es creada simplemente sustituyendo los nuevos códigos de valores de brillo de longitud variable por los códigos de valores de brillo originales de 1 byte. Por supuesto, la lista de códigos Huffman que acopla los valores de brillo originales a sus nuevos códigos Huffman variables se debe añadir a la imagen para el uso de la operación de descompresión Huffman, como se muestra en la Figura 41.
Diagrama de bloques de la codificación Huffman Figura 41
Los códigos Huffman son asignados creando un árbol de Huffman que hace combinaciones con los valores de brillo basado en la suma de las frecuencias de ocurrencia. El árbol de Huffman asegura que los códigos más largos se asignen a los brillos menos frecuentes y los códigos más cortos se asignen a los brillos más frecuentes. Usando el brillo clasificado en orden de sus frecuencias de ocurrencia, los dos del final de la lista (menos frecuentes) se combinan y se etiquetan como 0 y 1. Los brillos combinados son representados por la suma de las frecuencias de ocurrencia. Entonces, se determinan y se combinan las próximas dos frecuencias de ocurrencia más bajas. De nuevo, el siguiente par se etiqueta 0 y 1, y es representado por la suma de las frecuencias de ocurrencia. Esto continúa hasta que todo el brillo se ha combinado. El resultado es un árbol que, cuando se sigue del final hasta el principio, indica el nuevo código Huffman binario para cada brillo en la imagen.
La Figura 42 muestra una imagen de 640 píxeles x 480 líneas, donde cada píxel es representado por simplicidad, por un valor de brillo de tres bits. El histograma de la imagen muestra el número real de píxeles en la imagen con cada uno de los ocho valores de brillo. El brillo se ordena basado en sus frecuencias de ocurrencia y entonces se combina en un árbol de Huffman , como se describió anteriormente. Aunque todos los píxeles en la imagen original fueron codificados como valores de brillo de tres bits, los códigos Huffman son tan pequeños como un bit y pueden ser tan grandes como 7 bits. El código Huffman más largo nunca puede ser mayor que el número de valores de brillo diferentes en la imagen (en este caso 8) menos 1. Aunque una imagen codificada con Huffman puede tener un poco de brillo con códigos muy largos, sus frecuencias de ocurrencia siempre son estadísticamente bajas.
Histograma de brillo de la imagen original figura 42
Figura 43
Creación del árbol de Huffman
La cantidad de datos de la imagen original puede calcularse como 640x480x3 bits. La cantidad de datos de la imagen codificada por Huffman puede calcularse como la suma de las ocho frecuencias de ocurrencia multiplicadas por el respectivo número de bits en su código.
La descompresión de imágenes Huffman invierte el proceso de compresión sustituyendo los valores de brillo originales de longitud fija de un byte por valores codificados de longitud variable. La imagen original se reconstruye exactamente. La compresión de imágenes Huffman generalmente proporcionará razones de compresión de alrededor de 1.5:1 a 2:1.
25 FORMATOS DE VIDEO DIGITAL
Video Compuesto Digital
Los sistemas de video digital también han sufrido evolución, inicialmente el video digital implicaba solamente el convertir video compuesto análogo NTSC hacia digital, mediante este procedimiento no se lograba realmente una mejora importante en la resolución y calidad de la imagen, la única ventaja residía en el hecho de poder efectuar multigeneración sin degradación de calidad. Estos representaron los primeros formatos de video digital, para el caso de videotape aparecieron fabricantes tales como AMPEX, SONY con el formato D2, y PANASONIC con su formato D3, ambos formatos eran video compuesto digital y solo diferían en cuanto a la estructura de datos y grabación, sin embargo la calidad era prácticamente la misma.
Video en Componentes Digital CCIR 601
Como se mencionó anteriormente el video compuesto digital, en realidad no aportaba una mejora importante en la calidad de la señal de video, por lo cual se decidió por manejar la señal de video en componentes con lo cual la calidad si sufría un incremento importante en la calidad, ante esta necesidad surgió la norma CCIR 601, que dicta los estándares para video digital por componentes , la norma CCIR-601 en realidad es un estándar de muestreo, en este se informa sobre él método para efectuar el muestreo de señales en componentes para los sistemas 525/59.94 y 625/50. Esta norma se diseño en conjunto con el SMPTE y se emitió en 1981, el resultado fue la recomendación CCIR –601, esta recomendación explica el muestreo ortogonal a 13.5 Mhz para luminancia y 6.75 Mhz para las dos diferencias de color CB y CR, las cuales son B-Y, R-Y. Esta recomendación especificaba 8 bits de precisión por palabra para representar el video, sin embargo algunos fabricantes así como participantes en el desarrollo del la recomendación sugirieron que 8 bits no resultaban suficientes para representar el video, actualmente es posible encontrar sistemas de 10 e inclusive de 12 bits. El CCIR (International Radio Consultative Comitee) fue reorganizado hace algún tiempo, por lo cual el CCIR ya no existe ahora recibe el nombre de ITU (International Telecommunications Unión), versiones mas recientes con la consideración de 10 bits fueron emitidas ahora por el ITU por ejemplo ITU-R-601-2. Actualmente prácticamente todos los fabricantes producen equipos para producción y post-producción basados en esta recomendación, la cual proporciona las ventajas de operación en digital y componentes, y representa la máxima calidad posible en sistemas de 525 y 625 líneas.
El Sistema 4:2:2
La norma CCIR-601 implica el estándar de video por componentes y se refiere a el muestreo aplicado a las señales de luminancia y las componentes de color, en algunas ocasiones se hace referencia al equipo de video digital en componentes como Sistema de 4:2:2, esta nomenclatura hace referencia a los múltiplos de muestreo que se utilizan para la luminancia y para las componentes de diferencia de color. Para el caso de el 4, este se refiere a 4 veces la frecuencia de la subportadora de color en un sistema NTSC, es decir: 3.57945 Mhz X 4 = 14.3178 Mhz. Este valor se estableció en un valor de 13.5 Mhz, para hacerlo compatible mediante un factor de 2.25 Mhz, con la frecuencia de muestreo del sistema PAL, los otros dos números corresponden a las veces que se muestrean las componentes de color, es decir: 3.57942 Mhz X 4= 7.1588 Mhz. De igual forma la frecuencia par este caso se situó en 6.75 Mhz.
El sistema 4:4:4
Diversas pruebas han demostrado que la transiciones efectuadas cuando se usa el “Chroma Key” en el sistema 4:2:2 da una perturbación perceptible en las transiciones. Por esta razón los fabricantes de equipos de estudio han optado por utilizar el ancho de banda completo para señales en componentes digitales. Como se sabe la precisión de la incrustación depende de la frecuencia más alta presente de la señal de conmutación. Para este caso el sistema 4:4:4 es el más adecuado, por esta razón los switchers de estudio procesan internamente en 4:4:4 aún cuando las entradas y salidas sean en formato 4:2:2. Este es el caso de los switchers de producción de la serie Synergy del fabricante ROSS VIDEO.
26 Formatos de Videotape Digital
La grabación en videotape ha sido siempre una necesidad en los sistemas de televisión ya sean análogos ó digitales; para el caso de los sistemas de televisión digital existen también formatos de videotape digital, los cuales inician desde el sistema de video compuesto digital para el cual se diseñaron dos formatos, el formato D2 fabricado por AMPEX y SONY, y el formato D3 fabricado por PANASONIC, estos dos formatos graban video digital compuesto, por lo cual no planteaban una gran mejora en la calidad de la señal. El formato de video en componentes digitales se llama D1, ó 4:2:2, actualmente muchos fabricantes diseñan equipo en base a estos requerimientos, por ejemplo PANASONIC con el formato DVC-PRO, SONY con Betacam Digital, etc. A continuación se muestra una pequeña tabla con estos formatos:
Nombre |
Tipo |
Cassette |
Comentarios |
Fabricante |
D1
D2
D3
BETACAM D5
|
Componentes Compuesto Compuesto Componentes Componentes |
¾”(19 mm.)
¾” (19 mm.)
½” (13 mm.)
½” (13 mm.)
½” (13 mm.) |
Alta calidad uso en post-producción.
Uso Broadcast, edición.
Misma aplicación que D2.
Broadcast, edición, post-producción.
Broadcast, edición, post-producción. |
SONY y otros
SONY
PANASONIC
SONY 10 Bits PANASONIC |
Tabla 6
Velocidad de Transmisión
En los inicios de los sistemas de video digital, una gran cantidad de equipos poseían interfaces paralelas, por ejemplo algunos modelos de Maquinas de Videotape formato D3 Panasonic , tenían esta interface y carecían completamente de salida serial, para poder integrar estos equipos con el resto del sistema era necesario agregar un convertidor de paralelo a serial, es importante recordar que este formato es video digital compuesto por lo cual el ancho de banda es menor que para el caso de video digital por componentes, en la tabla siguiente se muestran las velocidades de los estándares vistos hasta ahora.
Formato |
Data Rate Serial |
4 Fsc- NTSC
4Fsc-PAL
4:2:2
Formato de 16:9
|
Video Compuesto Digital Video Compuesto Digital PAL
Video en Componentes Digitales , es la misma
Video en Componentes Digital |
Tabla 7
El sistema mpeg-1 tiene tres partes principales: audio, video y un sistema multiplexor que integra a las otras dos (codificador de audio y de video), como se muestra en la siguiente gráfica. Estos dispositivos funcionan independientemente, pero se sincronizan con un reloj dentro del mismo sistema (90 KHz), que suministra el valor de tiempo, a ambos codificadores. Estos valores son de 33 bits y sus marcas de tiempo se incluyen en la salida codificada y se propagan hasta el receptor, este puede usarlas para sincronizar las corrientes de audio y video.
figura 44
La compresión de audio mpeg se hace muestreando la forma de onda a 32 KHz, 44.1 KHz o 48 KHz; permite manejar sonido monofónico. En este sistema el algoritmo se organiza en tres capas, cada una de las cuales aplica optimizaciones adicionales para obtener mayor compresión (a mayor costo). La primera capa es el esquema básico, esta capa se usa, por ejemplo, en el sistema de cinta digital dcc. La segunda capa agrega asignación avanzada de bit al esquema básico; se usa para audio de cd-rom y pistas sonoras de cine. La tercera capa agrega filtros híbridos, cuantificación no uniforme, codificación Huffman y otras técnicas avanzadas.
La compresión del audio se logra ejecutando una transformación de Fourier con la señal de audio para transformarla del dominio de tiempo al dominio de la frecuencia. El espectro resultante se divide entonces en 32 bandas de frecuencia que se procesan por separado. Cuando están presentes dos canales estéreo, también puede aprovecharse la redundancia inherente por tener dos fuentes de audio altamente traslapadas. La corriente de audio mpeg-1 resultante se puede ajustar desde 32 Kbps hasta 448 Kbps.
Considerando que en la compresión de video mpeg-1. Existen dos clases de redundancia en las películas: espacial y temporal; en los cuales la redundancia espacial puede utilizarse simplemente al codificar por separado cada marco mediante jpeg. Este enfoque se usa ocasionalmente, sobre todo cuando se requiere acceso aleatorio a cada marco, como por ejemplo, en la edición de producciones de video.
La salida del mpeg-1 consiste en cuatro tipos de marcos:
figura 45
El sistema mpeg-2 tiene una manera más general de multiplexión del audio y video que el modelo mpeg-1, ya que define una cantidad ilimitada de corrientes elementales, incluidos video y audio, pero también corrientes de datos que pueden sincronizarse con estos. Cada una de las corrientes se empaca primero con marcas de tiempo, como se muestra en un ejemplo sencillo de dos corrientes en la figura 45.
El sistema DigiCipher usa la tecnología de compresión digital de video y audio, con el estándar internacional mpeg, que se diseñó principalmente para comprimir video con calidad de difusión de 4 a 6 Mbps, de modo que pueda introducirse en un canal de difusión ntsc. En la compresión de audio, el mpeg-2 soporta el Dolby ac-3 (sonido cuadrafónico), tecnología de audio estéreo digital. El sistema Dolby ac-3 es un sonido digital y se comprende en las frecuencias de 44.1 KHz a 48 KHz,
Con este se puede manejar sonido monofónico, estéreo disjunto (cada canal comprimido por separado) o estéreo combinado (explotación de la redundancia intercanal). El sistema Dolby ac-3 usa una combinación de filtros y compresión de rango dinámico, para reducir los efectos del ruido; como estos efectos son más notorios cuando el nivel de la señal es bajo, el sistema intenta elevar los niveles bajos de la señal para que no sea perceptible el ruido.
El sistema Dolby ac-3 divide el espectro de audio en cuatro bandas de frecuencias (filtro pasa-alto) y aplica una elevación de 10 a 15 dB para las bandas individuales, cuando el nivel de la señal de audio cae por debajo del nivel predeterminado. Él esta alrededor de 45 dB por debajo de una señal estándar, conocida como nivel Dolby y se ajusta con respecto al nivel de flujo en la cinta de grabación. La señal elevada se agrega a la original y se graba. Como se muestra en el diagrama.
29 EL ESTANDAR DVB
Tras unos años de revolución tecnológica en el mundo de las telecomunicaciones en general, sin duda, lo que ha permitido comenzar la revolución en el mundo de la televisión ha sido, por un lado, la viabilidad de la puesta en práctica de las ideas acerca del tratamiento digital de la señal de televisión, y por otra parte, el desarrollo de estándares de codificación y transmisión.
La tecnología para los servicios de TV digital por satélite está desarrollándose rápidamente; este desarrollo es principalmente impulsado por los esfuerzos que se están realizando, en el ámbito de La Unión Europea, para conseguir elaborar los estándares necesarios y se produzca la regulación correspondiente en cada país. Hablar del progreso de la normalización asociada a la difusión de TV digital vía satélite es hablar del proyecto DVB (Digital Vídeo Broadcasting); este proyecto, dio inicio en 1993, y se encarga de elaborar las especificaciones técnicas necesarias, a partir de los requisitos comerciales definidos por organizaciones y empresas interesadas en el desarrollo de este tipo de servicios. El DVB genera normas sobre TV digital que son estandarizadas por el ETSI (European Telecommunication Standard Institute) y el CENELEC (European Committee for Electrotechnical Standardization).
Para comprender la importancia de DVB se tiene que regresar una década atrás, en 1990, cuando la difusión de televisión digital empieza a convertirse en un hecho. En Europa, durante 1991, radiodifusores y fabricantes preocupados por el caos ante equipos de consumo incompatibles discuten la idea de crear una plataforma paneuropea para el desarrollo de televisión digital terrestre; Hacia finales de ese año, radiodifusores, fabricantes de electrónica de consumo y cuerpos reguladores, forman un grupo destinado al desarrollo de la televisión digital en Europa, el ELG (European Launching Group) que incluye a los grupos Europeos de mayor relevancia en el mundo de las telecomunicaciones. Realizan un borrador, el llamado Memorandum of Understanding (MoU), estableciendo las reglas a las que tendrían que atenerse. Este documento se firmó en Septiembre de 1993, y en 1995 se unieron a la firma otras compañías de Estados Unidos (AT&T, CLI, DEC, General Instruments, hoy motorola, Hewlett Packard, Hughes Electronics y Texas Instruments), de Japón (como NEC, Mitsubishi Electric, Pioneer y Sony) y por supuesto de Europa (como ALCATEL, la BBC, EUTELSAT, France Telecom, News Corp, Nokia, RTL, Thomson, y ZDF). ELG se convertiría más tarde en lo que hoy conocemos como DVB (Digital Video Broadacasting).
Queda claro que el satélite y el cable proporcionarían los primeros servicios de televisión digital y a ellos fueron encaminados los esfuerzos, al mismo tiempo, se seguía desarrollando la difusión terrestre.
En 1997, el desarrollo de los proyectos DVB había obedecido satisfactoriamente a sus objetivos iníciales y entró en su siguiente fase, promoviendo la globalización de sus estándares y haciendo de la televisión digital una realidad.
Hoy en día, con la tecnología DVB, no sólo se dispone de una mejor calidad de vídeo y de una mayor oferta de canales, sino que tenemos la posibilidad de acceder a servicios de los que no disponemos, como la televisión a la carta o servicios multimedia. Los éxitos que DVB ha logrado son muy notables y han traspasado las fronteras europeas, con lo que podemos encontrarlos operativos en los cinco continentes, tal como muestra la figura 46
Figura 46. Adaptación de la Norma DVB a nivel Mundial
Muchas organizaciones han prestado su ayuda poniendo en sus manos resultados de trabajos individuales (MPEG, DAVIC), o bien a través de una cooperación activa transformando las especificaciones de DVB en normas e informes (ETSI, CELENEC, UIT). Pero la tarea de DVB aún no ha acabado y sigue trabajando igual que al principio innovando servicios y técnicas de difusión digital de televisión. El estándar DVB asegura tener una mayor flexibilidad para el transporte de trenes de datos multiprograma permitiendo con gran facilidad que estos cambien de medio fácilmente, como por ejemplo pasar del satélite a una distribución por cable.
LA ORGANIZACIÓN DVB
Principios y Objetivos. Los estándares de DVB fueron creados para obtener un entorno de uniformidad en la difusión de televisión digital. Su objetivo es crear un escenario horizontal constituido por plataformas comerciales que ofrecen sus servicios. Sin embargo los procesos de normalización, diseño y puesta en el mercado son lentos, teniendo en cuenta esto, DVB permite la salida a determinados productos como soluciones interinas (legacy) siempre y cuando sean convergentes a la normativa final, esto da lugar a un escenario vertical. Todos los productos DVB cumplen una serie de características, de manera que sus estándares han de ser:
Figura 47
La interoperabilidad permite a los fabricantes conseguir una economía de escala. Esto implica la posibilidad de utilizar un conjunto de elementos comunes para todos los sistemas de difusión. Aquí se muestra un circuito común típico de un IRD de DVB.
Figura 48
30 LA TELEVISIÓN DIGITAL
En los últimos meses se ve cada día más cercano el fin de la Televisión Analógica, y el futuro nos muestra la Televisión Digital. Quizás se podría poner como ejemplo lo que sucedió con los discos de acetato y el CD. De esta forma aunque los usuarios no notarán una diferencia de imagen demasiado espectacular si podrán hacer otras cosas con ella.
Características Generales: La mayoría de los equipos usados hoy en día para la creación de programas de televisión son digitales. Aunque todavía se recibe en la televisión domestica señales analógicas, su calidad, disponibilidad y sus contenidos de programa, no serían posibles sin una distribución y producción digital. Cuando se observa un programa en casa, ya sea a través del cable, satélite o microondas, el televidente esta al final de una cadena de eventos, en los que todos, a excepción de la transmisión, son digitales.
Pero, ¿por qué la señal digital?, bien, se pueden agrupar sus ventajas en los siguientes puntos:
Con esto, la TV Digital proporciona más canales y mejor calidad de imagen, tanto si se habla de televisión de calidad estándar (Estándar Definition Televisión SDTV por sus siglas en inglés), como de alta calidad (High Definition Televisión HDTV). Se obtendrán imágenes con calidad de cine y sonido Hi-Fi, es decir, se permite tener el cine en casa. Se cree que llegará un momento en que todo lo que se puede hacer con un ordenador será posible a través de nuestro televisor abriendo un amplio espectro de posibilidades.
Agentes de la TV Digital y modelos de reparto
Un sistema de TV digital consta de los siguientes componentes:
Dependiendo del medio en que nos encontremos se tienen diferentes sistemas de distribución de televisión digital, aquí se muestra una representación de tales sistemas.
Figura 48
SISTEMA DE TELEVISIÓN DIGITAL POR CABLE
SISTEMA DE TELEVISIÓN DIGITAL TERRENAL
Figura 49
SISTEMA DE TELEVISIÓN DIGITAL POR MICROONDAS
31 EL SISTEMA DE COMPRESIÓN DE MPEG
Introducción
En 1998 se creó un grupo de trabajo con el nombre de MPEG (Moving Pictures Experts Group). Su objetivo era crear una norma para la compresión de señales de vídeo y datos enfocada a su almacenamiento y recuperación en equipos digitales. El primer estándar MPEG-1 fue publicado en 1993 por OSI, y el resultado fue publicado en 1994 como la norma ISO / IEC 13818. MPEG-2 fue el sistema adoptado por DVB para la codificación de señales de audio, vídeo y como sistema de transporte. El sistema MPEG-2 controla todo tipo de señales de televisión de Baja Definición (LDTV), Alta Definición (HDTV), Definición Estándar (SDTV) y Definición mejorada (EDTV). Además es capaz de negociar con cualquier formato de pantalla, desde la 4/3 a la 16/9.
Obtención de la señal Digital y Compresión
La imagen digital está dividida en un conjunto de pixeles, de esta manera MPEG-2 escribe en la cabecera de cada paquete la dirección del pixel al que va destinado y en su interior unos códigos que informan del brillo y color del pixel elegido. Cada pixel de la imagen se define por una expresión matemática que requiere de tres números, uno correspondiente a la señal de luminancia, Y, y otros dos a la de crominancia, Cr (diferencias respecto del color rojo) y Cb (diferencias respecto del azul). El ancho de banda asignado a las señales de crominancia puede ser la mitad de la de luminancia ya que el ojo humano es menos sensible a las diferencias de color que a las de brillo. Así, por acuerdo internacional, la luminancia se muestrea a 13.5 MHz, mientras que la crominancia lo hace a 6.75 MHz. Por facilidad el muestreo se representa con tres números n:p:q, esto significa que por cada n muestras de luminancia se toman p muestras de Cr y q muestras de Cb. Por ejemplo, el muestreo 4:1:1, significa que se toma una muestra de cada señal de crominancia por cada cuatro de luminancia. A partir de la señal muestreada obtenemos la señal digital codificando con 10 bits cada muestra. Los diez bits por muestra se pueden enviar por un interfaz digital paralelo o serie. Además de todo esto MPEG-2 dispone de códigos correctores y detectores de errores, que protegen la información. Si se transmite la señal digital tal cual se alcanzaría anchos de banda demasiado grandes, por tanto lo que se hace es una compresión. La compresión equivale a la reducción de datos a transmitir o grabar. La compresión es posible porque las señales de audio y las de vídeo contienen redundancia. En el caso de la televisión digital, la redundancia puede ser temporal o espacial.
Se puede hablar de dos tipos de codificación:
Para procesar la imagen se utiliza la transformada discreta en coseno alzado, esta función se aplica a las muestras de la imagen. Y, mientras que en el dominio del tiempo tenemos valores muy diferentes, en el dominio de la frecuencia casi todos los valores son pequeños y muy parecidos, esto permite codificarlos y cuantificarlos de una manera eficiente. La proximidad de pixeles puede ser temporal o espacial, y permite tres tipos de predicción básicos:
El objetivo de utilizar imágenes P y B es que llevan menos información que si mandamos las originales, ya que lo único que hacemos es mandar información acerca del movimiento. Las imágenes I, P y B se envían en grupos (GOP) de hasta 12 ó 15 imágenes, cada grupo comienza con una imagen I y se extiende hasta otra imagen I, y su transmisión se realiza enviando grupos de imágenes I, P y B. Hay diversos tipos de MPEG-2, se pueden clasificar en cinco perfiles y cuatro niveles tal como sigue:
|
SIMPLE Imágenes-B 4:2:0 No-escalable |
PRINCIPAL Imágenes-B 4:2:0 No-escalable |
SNR Imágenes-B 4:2:0 SNR-escalable |
ESPACIAL Imágenes-B 4:2:0 SNR-escalable Espacial escalable |
ALTO Imágenes-B 4:2:0 ó 4:2:2 SNR-escalable Espacial escalable |
ALTO 1.920-Pixels 1.152 Líneas |
|
80 Mb/s (máx) |
|
|
100 Mb/s (máx) |
ALTO-1440 1.440 Pixels 1.152 Líneas |
|
60 Mb/s (máx) |
|
60 Mb/s (máx) |
80 Mb/s (máx) |
PRINCIPAL 720-Pixels 576-Lineas |
15 Mb/s (máx) |
15 Mb/s (máx) |
15 Mb/s (máx) |
|
20 Mb/s (máx) |
BAJO 352-Pixels 288-Líneas |
|
4 Mb/s (máx) |
4 Mb/s (máx) |
|
|
Tabla 8
Los niveles definen las características de la señal de vídeo original y los perfiles las herramientas utilizadas para la compresión de datos. De los 20 solo 11 son efectivos, a cada uno de ellos se les ha asignado un flujo de bits. DVB ha elegido el principal para la difusión digital de programas.
El sistema de transporte MPEG-2
Este sistema integra los bits correspondientes a las señales de audio, vídeo y otros datos auxiliares en un único flujo. Para cada señal de audio o vídeo la codificación MPEG-2 crea un bloque denominado corriente elemental, a cada corriente elemental se le llama servicio y el múltiplex de uno o más servicios se denomina programa. Para crear la señal de múltiplex primero se divide cada corriente elemental en paquetes llamados PES (Packetized Elementary Stream) con información adicional de cabecera, con los paquetes PES se crean dos tipos de múltiplex: la corriente de programa (PS) y la corriente de transporte (TS),
Los TS llevan información de cabecera adicional. La información de cabecera más importante es el PID (Packetized Identificater) y el PCR (Programm clock reference) que permite sincronizar el codificador y el decodificador.
figura 52
Por último, el sistema MPEG-2 también contiene el PSI (Program Specific Information) que informa al receptor de qué servicio se trata y de cómo decodificarlo. El PSI es muy útil para servicios bajo demanda de la televisión digital.
Empaquetamiento de la información
Lo más interesante, a la hora de conocer cómo funciona este estándar internacional, es el aspecto que se refiere a la integración de la información que queremos transmitir (vídeo, audio y datos), en los paquetes de flujo de transporte. La constitución de la estructura de dicho paquete de transporte se realiza de la siguiente manera:
Representación del esquema del Transport Stream. Figura 53
32 LOS ESTÁNDARES DVB
El Proyecto DVB, tal como se ha estudiado y con el fin de cubrir una serie de requisitos comerciales, ha creado una serie de estándares que cubren los distintos medios en los que se puede llevar a cabo la comunicación. El número de estándares es bastante alto, de manera que aquí solo se presentarán los más importantes:
DVB-S: Sistema de transmisión digital por satélite,
DVB-C: Cubre transmisión digital por cable,
DVB-T: Es un sistema para la transmisión digital terrestre,
DVB-MC/S: Es un sistema de distribución multipunto de video a frecuencias de microondas,
DVB-S Digital Satellite Transmission System
[ETS 300 421]
DVB-S es el estándar que regula la transmisión digital por satélite. Es el estándar más antiguo y el más admitido en todo el mundo. Proporciona un rango de soluciones que son adaptables a los anchos de banda de los transponders entre 26MHz y 72 MHz. La base de la transmisión es una portadora simple que tiene múltiples canales de audio y video digital.
Se puede ver su estructura, como una estructura por capas. Imaginar que se tiene una pelota dividida en capas, pues bien, en el centro se tendrá la "carga útil" (tasa de bit útil). Alrededor se encuentran una serie de capas que hacen que la señal sea menos sensible a errores y coloca la "carga útil"(payload) para su difusión.
El video, audio y otros datos se colocan dentro de paquetes MPEG-2 Transport Stream de longitud fija.
A esto siguen las siguientes etapas de procesamiento:
R |
1/2 |
2/3 |
3/4 |
5/6 |
7/8 |
Eb/No(dB) |
3.3 |
3.8 |
4.3 |
4.8 |
5.2 |
El esquema siguiente muestra los pasos seguidos:
Figura 53
El sistema se ajusta a las características del canal básicamente entre la Multiplexación y la transmisión física. El sistema se adopta a las características de error del canal. Así frente a las posibles ráfagas de errores hace una aleatorización, con esto conseguimos que los errores estén separados, así es mucho más fácil recuperar la señal, una vez aleatorizados se añaden dos capas para la corrección de errores. Por último el Inner Code puede ser adaptado en función de las circunstancias (potencia, tasa de bit disponible,...).
La siguiente figura muestra los diagramas de bloques básicos para la transmisión y recepción del sistema DVB.
Figura 55
Sistema DVB-S
1. Inversión de sincronismo y dispersión de energía
2. Codificación externa (Outer Coding)
3. Entrelazando (Interleaving)
4. Codificación Interior (Inner Coding)
5. Filtrado en Banda Base
6. Modulación
[ETR 300 429]
El documento [ETR 300 429] describe la codificación del canal y modulación para la entrega de señales DVB en redes de cable. Utiliza el mismo sistema que DVB-S, con ciertas diferencias, en primer lugar utiliza la modulación QAM (Quadrature Amplitude Modulation) en lugar de QPSK. Además no necesita del código interior de corrección de errores hacia delante (Inner-code FEC) como ocurre con DVB-S.
La modulación se centra en una 64-QAM, aunque también son factibles niveles inferiores como 16-QAM y 32-QAM y niveles superiores de 128-QAM y 256-QAM. Pero el uso de estas últimas dependerá de la capacidad de la red para hacer frente a los reducidos márgenes de decodificación. Tanto para una modulación de menor nivel habrá que encontrar un compromiso entre la capacidad de los datos y la robustez del sistema. Por ejemplo, si tratásemos con una 64-QAM a 8MHz y sin pisar canales adyacentes podemos alcanzar una capacidad de 38.5 Mbits/s.
[ETR 300 744]
Es el estándar para difusión terrenal de televisión, fue aprobado en febrero de 1997 por el ETSI. Fue creado basándose en unos requisitos del Módulo Comercial Terrestre del proyecto DVB, sus miembros contribuyeron al desarrollo técnico a través del DTTV-SA (Digital Terrestial Television – Systems Aspects). Los proyectos Europeos SPECTRE, STERNE HD-DIVINE, HDTVT, dTTb, y muchas otras organizaciones desarrollaron sistemas de hardware e introdujeron resultados que fueron aplicados después por el DTTV-SA. Del mismo modo que el resto de los estándares de DVB, el DVB-T utiliza como método de codificación de audio y video MPEG-2.
El sistema DVB-T es de los más complejos de la familia de estándares, esto es debido a la hostilidad del medio al que se enfrenta. A parte de la utilización del sistema MPEG-2 otros elementos de la especificación son:
El sistema DVB-T introduce un intervalo de guarda para protegerse contra ecos y evitar la interferencia intersimbólica. Las características del estándar DVB-T permiten que si el eco cae dentro del intervalo de guarda beneficie a la señal, además, posee un alto grado de inmunidad a las interferencias de banda estrecha, como se puede considerar a las señales de televisión analógicas. Debido a que la señal de DVB-T tiene un gran ancho de banda, solo afectaría a la señal de televisión analógica como ruido blanco. Esto permite la utilización de canales hasta ahora considerados como tabú, además DVB-T permite la introducción de redes de frecuencia única. (SFN- Single Frecuency Networks)
Si se piensa en la planificación de la televisión analógica, se observara que utiliza redes multifrecuencia y debe enfrentarse a interferencias co-canal, esto conlleva una prohibición del canal del 90%. Trasladándose a las redes de frecuencia única, puesto que todos los transmisores emiten lo mismo a la vez y en la misma frecuencia, donde antes se emitía un único programa analógico utilizando 9 frecuencias, ahora se pueden emitir 9 tramas una por canal, conteniendo cada una de ellas un número de programas que estará en función del modo DVB-T seleccionado. Esto produce una eficiencia espectral impresionante. Pero no todo son ventajas, ya que este sistema no permite la introducción de nuevos contenidos y además tiene unos requisitos de sincronización muy estrictos. Para estos últimos se ha creado una especificación, MIP (Megaframe Identification Framer [TR 101 191]), de sincronización de tramas de transporte, este mecanismo requiere de una señal de sincronización externa.
Televisión Digital Terrestre
Hay tres tipos de modelos para la difusión de televisión digital terrestre:
Con esto, hay otro de los problemas de DVB-T, que es intentar optimizar el sistema para todos los ámbitos a la vez.
DVB-T es el único estándar internacionalmente aprobado por la difusión de televisión terrestre en Europa, además de ser el único sistema adoptado por 15 miembros de la Unión Europea.
Desde Enero de 1999 se espera que Suecia, España, Dinamarca y Alemania implanten sus redes DVB-T.
DVBMC/S Digital (microwave) multipoint Distribution Systems
[ETS 300 748] & [ETS 300 749]
Es un sistema de distribución multipunto para la entrega directa de TV a casa usando frecuencias de microondas. Estas frecuencias son del orden de los 10 GHz. Hay dos estándares definidos dentro de éste:
DVB-MC: Está basado en los sistemas de entrega por cable, por tanto podríamos usar el mismo receptor para las transmisiones DVB-C y por microondas. Utiliza frecuencias por encima de los 10 GHz.
DVB-MS: Esta basado en los sistemas de transmisión por satélite. Un receptor de señales de DVB-S podría recibir este tipo de señales sin más que añadir un pequeño aparato para convertir a MMDS. Utiliza frecuencias por debajo de los 10 GHz.
EL RECEPTOR DECODIFICADOR INTEGRADO (IRD)
Para que este nuevo sistema de difusión de TV sea compatible con los sistemas anteriores de TV analógica, se necesita algún dispositivo en el conjunto receptor, que permita capturar la señal y realizar el tratamiento necesario sobre ésta, entregue a su salida una señal adecuada al aparato de receptor de TV convencional ya instalado; este dispositivo es el Receptor Decodificador Integrado (IRD).
El IRD también es conocido como Set Top Box, en especial en EE.UU., cuando se quiere recalcar su capacidad de conexión con otros aparatos de procesado de la información como el teléfono, la cadena de audio de alta fidelidad, el vídeo o la PC, constituyendo así una plataforma de usuario para el acceso a la información. En el IRD se encuentran las claves para el acceso condicional a programas y servicios. Un receptor decodificador integrado típico consiste en:
Figura 55
Esquema a bloques de un IRD
Un receptor QPSK típico es capaz de demodular el ancho de banda de un Transponder entero. Por supuesto el receptor se puede sintonizar automáticamente al Transponder deseado.
Uno de los problemas a los que se enfrentan los fabricantes, es la falta de estandarización de los IRD. Para poder cumplir con los requisitos de las diferentes plataformas, se ven obligados a efectuar distintos diseños para cada una. Actualmente, estos diseños están basados en hardware, por el número de tareas críticas que hay que efectuar en tiempo real, y, por consiguiente, carecen de la flexibilidad que proporcionaría un software programable, capaz de adaptarse a diferentes sistemas de acceso condicional. Sin embargo, en breve plazo comenzará a disponerse de IRD más flexibles y con capacidad de acomodarse simultáneamente a varias plataformas, mediante la norma conocida como Interfaz Común.
En los países más adelantados en regulación de televisión digital como el Reino Unido, existen normativas para asegurar la competencia leal y en igualdad de oportunidades entre los fabricantes de IRD, asegurándose muy especialmente que una alianza con un difusor no les sitúa en posición de abuso de posición dominante. El objetivo es conseguir los deseados efectos de economía de escala gracias a la competencia, con el fin de reducir los precios de lanzamiento de la plataforma.
El acceso condicional (AC)
El AC es uno de los aspectos clave a la hora de decidir el desarrollo comercial de la TV digital. Por el carácter estratégico que presenta para los operadores, el DVB ha mantenido un foro de discusión con los agentes interesados, sin que hasta el momento haya decidido que esquema de AC debe ser el empleado. Sus trabajos se han centrado en definir un Interfaz Común dotado de ranuras PCMCIA para la conexión simultánea de varios módulos de acceso condicional (modalidad Multicrypt) y en elaborar las normas para un esquema Simulcrypt.
El sistema de acceso condicional incluye los siguientes elementos:
El proceso que sigue el Acceso Condicional es la siguiente: un abonado se da de alta en un cierto evento, programa o servicio de una plataforma de TV digital; esta petición de alta se envía por el canal de retorno al centro de atención del proveedor del servicio, que utiliza su Sistema de Gestión de Abonado para darle de alta y tarificarle, de acuerdo a su petición; el Sistema de Autorización proporciona, los mensajes necesarios a la trama MPEG para permitir el acceso a este abonado autorizado; estos datos de AC son extraídos del TS por el IRD y validados con la información contenida en la tarjeta del abonado, habilitando, en caso afirmativo, el funcionamiento del desaleatorizador.
Es fundamental observar que para que se pueda llevar a cabo este proceso que acabamos de describir, debemos tener en cuenta tres factores clave y a veces contrapuestos:
Teniendo en cuenta estos factores, el DVB ha estudiado dos posibles soluciones:
Simulcrypt
Esta solución supone que un operador proporciona un IRD al usuario que incluye en su interior su sistema de acceso condicional. El concepto Simulcrypt admite la compatibilidad con los sistemas de AC de otros operadores que funcionan con el mismo concepto, ya que al incorporarse un nuevo operador dirigido a un mismo abonado, el segundo operador debe negociar con el primero que subvencionó el IRD para llegar a un acuerdo comercial. La compatibilidad se consigue difundiendo, por parte de ambos operadores, de los mensajes de control y gestión del acceso condicional propio y los del otro operador.
Esta situación supone que una vez instalado el IRD, los siguientes operadores deben negociar con el primero para poder acceder a los usuarios de éste, facilitando al primer operador la amortización del IRD instalado inicialmente, al poder traspasar parte del costo a los siguientes operadores que quieran participar de los IRD’s subvencionados por él.
Interfaz común: Multicrypt
Esta solución busca la compatibilidad física y lógica del IRD básico; esto supone que el IRD se separa en dos bloques: el bloque encargado de las funciones comunes de recepción y demultiplexado y el bloque que se encarga de las funciones exclusivas de cada sistema de acceso condicional particular, incluido en un módulo extraíble externo, interconectados mediante un bus PCMCIA. El módulo externo puede desarrollarse y producirse a un costo que no suponga excesivas inversiones para el usuario, de manera que el usuario puede abonarse a una nueva plataforma sin cambiar su IRD. Además es un sistema abierto, que no requiere acuerdos entre operadores, salvo que exista uno que haya subvencionado el IRD.
33. SERVICIOS SOBRE LA PLATAFORMA DE TV DIGITAL.
Las infraestructuras de la TV digital permiten soportar servicios variados, siendo la característica principal que son servicios digitales y, por tanto, pueden integrar aplicaciones de TV con aplicaciones de datos. Estos servicios son una revolución en el sector audiovisual respecto a la TV analógica, ofreciendo una convergencia real de mercados y tecnologías equiparable a la telemática.
Los servicios que ofrece la plataforma de TV digital se pueden clasificar en:
La característica fundamental que hace posible la oferta de estos servicios es la digitalización, cuyas ventajas, entre otras, podemos citar:
Ésta última es la ventaja definitiva. La televisión es el medio de acceso a la información más difundido en el mundo. Por ello, parece lógico suponer que éste es el camino con mayor facilidad de penetración para los servicios avanzados que conformaran la sociedad futura basada en la información. Añadiendo que para la interactividad, la TV digital incorpora un canal de retorno, inexistente en la TV analógica convencional.
Servicios Audiovisuales
Los servicios más conocidos hasta ahora son los denominados Servicios de Televisión de Pago, que se exponen a continuación:
Es interesante destacar que estos servicios pueden enviarse sobre canales virtuales, por ejemplo, varios NVOD por ejemplo, sobre el mismo canal, comenzando con intervalos de tiempos de un cuarto de hora.
Para que el sistema se pueda gestionar eficientemente se necesita que la EPG permita reservar a qué horario se desea ver el programa (típicamente una película de actualidad). En este caso, la información sobre el NVOD llegaría a través del modem al sistema de gestión que enviaría las oportunas órdenes de transmisión y una factura detallada con los programas suscritos.
Servicios Interactivos
Los servicios interactivos funcionan de la siguiente manera. En el extremo emisor un servidor de aplicaciones inserta los datos que componen el servicio avanzado en el múltiplex que se envía por medio del Transponder del satélite. El IRD decodifica la información y ejecuta la aplicación enviada. La interactividad generada por el usuario se envía por el canal de retorno a un servidor transaccional. Este servidor verifica la seguridad y fiabilidad de estos datos, y dirige la respuesta del servidor específico que da satisfacción a la petición del usuario. El usuario interacciona con el servicio avanzado sobre el televisor a través del mando a distancia del IRD. A continuación se ofrece una lista, sin pretender que sea exhaustiva, de algunos de los servicios avanzados posibles:
34 Servicios de Acceso a Internet
Además de los más conocidos servicios de televisión de pago e interactivos, la independencia de la fuente de información característica de la TV digital permite acceder a Internet, con todo lo que ofrece, desde el televisor (WebTV) o desde un PC. Por ello, se menciona en muy breve plazo a una nueva forma de acceso y uso de la información, que ya no requiere ni siquiera el manejo de un ordenador personal, con terminales como el WebTV, que consiste en un TV con funciones de navegación por Internet.
Una solución imaginativa para acercarse al escenario ideal de los servicios WWW, que son asimétricos y bidireccionales, pasa por la integración de dos redes existentes, la red de TV y la red telefónica, lo que se denomina una solución fragmentaria. Pero la red terrestre de TV es analógica y actúa en una banda de espectro ya muy saturada por los canales convencionales, por lo que es difícil integrar un servicio de datos en su estructura de transporte y difusión, [GTICa, 1997. Por esto observamos la necesidad de integrar este servicio, en la plataforma prevista para la difusión de TV digital vía satélite, mediante la arquitectura mostrada en la siguiente figura:
Conclusion :
Sin duda este documento es tan solo una introducción al mundo televisivo y sus diversas normas y estándares así como tecnología y medios para poder comunicar a los seres humanos, pero la importancia de conocer lo que es la comunicación por satélite y a su vez por otros medios y comprender como es posible que esto llegue a los lugares mas remotos es imprescindible sobre todo para los maestros que en la sierra tienen que apoyarse en esta tecnología para poder dar su clase y los instaladores del equipo tendrán una información que los ayudara a realizar mas eficientemente su trabajo tienen y al mismo tiempo tendrán una referencia para investigar cada tema y llegar a dominar todos los principios de la comunicación satelital y televisión digital así como en su momento se llego a conocer a fondo la televisión analógica.
Bibliografia :
Olivia Alejandra Alva Vargas Diplomado Calculo de enlace satelital Centro De Entranamiento de Television educativa (Cete) 2007
Diego Gilless El Libro Mas Guía de Ingeniería para la transición Digital editado por NVISION 1999
Michel Robin Television in Transition. Edit. Miranda Technologies Inc 2001
Raúl Ibarra Quevedo, Miguel Ángel Serrano.
Telecomunicaciones Móviles. Alfa Omega. México. 2a. ed. (1999).
John Wiley. Satellite Communications. New York. 2a ed. (2003).
Roden. M. S Analog and Digital Communication Systems. Prentice Hall. New Jersey. 4a.ed. (1996)
Luis E. Frenzel Traducción Carlos Cortez Gutiérrez Sistemas Electrónicos de Comunicaciones edit. Alfaomega 2003
Stark, H. et al. Modern Electrical Communications: analog, digital, and optical systems. Prentice-Hall. Englewood Cliffs, NJ, 2a ed.(1988).
www.satmex.com.mx
https://pnd.calderon.presidencia.gob.mx/index.php?page=transformacion-educativa
https://www.ilce.edu.mx/
https://dgtve.sep.gob.mx/
https://www.servsat.com/productos/antenas.htm
https://www.tek.com/