martes, 26 de octubre de 2021

Streaming la nueva forma de ver y oír




 ¿Qué se conoce por streaming?   

   Traducido literalmente del ingles, se refiere a transmisión o retransmisión.  

   Es un concepto tecnológico que aparece con gracias a internet y a las tecnologías de envío de datos que permite ver y oír en un dispositivo conectado a la red, contenidos en tiempo real sin tener que descargarlos. Como ejemplo de esto podemos destacar los postcast, emisiones en directo, las plataformas musicales como spotyfy o las de video como You tuve, HBO o Netflix.  




Vamos a ver cómo se mueve el video y el audio a través de esta tecnología.


     Imagínate el funcionamiento de un correo electrónico:


-   Generas el contenido del mensaje

-   lo envías a un servidor de correo electrónico, gmail, yahoo, etc..

-   Este servidor envía un aviso al destinatario del mensaje

-   El destinatario accede a la base de datos del servidor y lee el contenido del mensaje.


   Pues es algo parecido. Existen grandes empresas dedicadas a producir y almacenar contenido audiovisual, algunos de forma gratuita y otros a través de contraprestación económica, permiten el acceso a éste almacén de contenido.


   El contenido audiovisual son archivos informáticos que tienen un gran volumen de datos y por consiguiente una capacidad de transmisión a través de la red muy lenta. Para solventar el problema de la velocidad de transmisión, el archivo original se divide en pequeños paquetes con toda la información necesaria para que una vez lleguen al aparato reproductor del cliente, se ordenen y formen un conjunto homogéneo.

 

                                           




     Gracias a esta característica, el envío de contenido audiovisual se puede hacer a diferentes velocidades, lo bueno de esto es que la reproducción no empezará hasta que el dispositivo detecte que tiene suficientes paquetes ordenados para comenzar y mantener la emisión de forma estable. Este proceso se conoce como buffering (amortiguación), un dispositivo con un buffer de gran capacidad, conseguirá preparar la emisión y mantenerla estable rápidamente, si la conexión no es lo suficientemente rápida para conseguir los paquetes a tiempo de reproducirlos, se producirán paradas de emisión o pérdida de calidad.


   Una de las principales ventajas de esta tecnología es que se puede ver un contenido en el momento que el usuario desee, lo pueden ver miles de usuarios al mismo tiempo y estará disponible durante mucho tiempo en el servidor para disfrutarlo cuando y como quiera.




Streaming y emisiones.


      La emisión es la señal codificada que envía una sola estación a través de las ondas herzianas,  éstas son captadas por una antena receptora que las dirige por un cable a un receptor donde se descodifica dicha señal y se reproduce. Esta señal la pueden sintonizar muchos receptores al mismo tiempo, pero para disfrutarla tienen que consultar una guía que les indique en qué momento de producirá dicha emisión y estar preparados. 


                                         





      El streaming nos libera de estar preparados en un momento dado pues, una solo fuente de contenido estará conectada a través de internet aun solo destinatario o a millones de ellos en diferentes momentos.



Streaming y descargas.


Conocemos como descarga el proceso de transferir archivos desde una fuente a nuestro propio equipo, esto tiene la ventaja de que no necesita estar conectado a internet para disfrutar del contenido, la desventaja es que necesita tener mucha capacidad de almacenamiento. Con el streaming disfrutamos de ver una película sin alterar nuestra capacidad de almacenamiento. 


                                                                                  

                                                      


jueves, 28 de mayo de 2020

EL BITRATE


BITRATE

Siguiendo con conceptos audiovisuales que en algún momento estudiamos y que por falta de uso cotidiano, olvidamos sus características o función, me atrevo a reflotar el bitrate, concepto que relaciona la cantidad de información (bits) y el tiempo (segundos).

Se define como la cantidad de información que cualquier sistema es capaz de procesar en un segundo. Su unidad es el bits/seg y para más comodidad ya que ésta es muy pequeña, el Megabit por segundo (Mbps).


Para cálculos posteriores, recordemos que 8 bits = 1 Byte. A raíz de esto, podemos decir que un bitrate de 8Mbps genera un almacenamiento de datos de 1 MByte.

Otro ejemplo de esto que nos puede ayudar a comprender estas equivalencias sería el siguiente:


Dado un bitrate de 8 Mbps si grabamos una imagen durante un minuto, generamos un archivo que pesa 60 MB.







De esta manera podemos calcular con antelación qué capacidad de almacenaje vamos a necesitar para nuestra producción audiovisual.




 Hay que tener en cuenta otros aspectos que incrementan o disminuyen el valor de bitrate, como puede ser la resolución o área de imagen del sistema y el frame rate o imágenes por segundo que se generan.

                 




Fuentes consultadas:
"4K para principiantes" 
de Francisco José Espinosa Pérez 
(Tilano)

 Y Mi propia memoria.



martes, 26 de mayo de 2020

Cálculo de capacidad de almacenamiento

Gestión del espacio en las tarjetas de memoria ó cálculo del flujo de trabajo

  Hay momentos en los que necesitamos saber qué capacidad de almacenamiento tenemos que preveer para llevar a cabo la grabación de un evento. Conocemos las capacidades de los discos duros que tenemos y de las tarjetas de memoria pero....¿Será suficiente o tendré que comprar más memoria?


   Una manera de averiguarlo es calcular la cantidad de memoria x el tiempo de grabación, por ejemplo ¿Cuánta memoria necesito para grabar 60 minutos en Alta definición (HD) 1920x1080px a 25fps, 8bits de profundidad de color y 3 canales de color (3 CCD).

La formula es la siguiente:

1º establecemos los cálculos con respecto al tamaño de la imagen:

Sistema de grabación: HD   1920 x 1080
Fotogramas por segundo:    25
profundidad de color:           8 bits
CCD´s:                                    3

1920x1080=2.073.600 bits/seg ó 2´073Mbits/sg.
2,073Mb x 8bit/pixel x 3 colores = 49,75Mbits/seg 
49,75Mbits/seg  /  8 (paso de bits a byte) =6,21MB/seg


2º calculamos el flujo en un segundo:

6,21MB x 25fps = 155,4MB/seg. Este es el peso del archivo y  si lo convertimos a Mbps serían 1243,2Mbps, Este es el bitrate.


3º calculamos el flujo o espacio de almacenamiento en una hora:

Para una hora: 3600seg    

155,4MB/seg x 3600seg = 559.710MB/Hora ó 559,71GB/Hora

Podemos almacenar en una hora: 559,71GB
Podemos grabar con una tarjeta de 559,71GB durante una hora

  Cuando tenemos un bitrate fijo, podemos cambiar el sistema de grabación, SD,HD,4K,  consiguiendo meter en el mismo espacio de almacenaje el doble ó cuádruple de calidad de video. ¿Y cómo es esto posible? Tiene que mucho que ver el propio sistema de grabación y los codecs de compresión aplicados a cada sistema de grabación.

Es evidente que hay muchos parámetros que se dan en los formatos profesionales y que aquí no se han tenido en cuenta, pudiendo variar la capacidad de almacenamiento.

                                                Valores para tarjetas SxS-1

Fuentes: "4K para principiantes" (Francisco José Espinosa Pérez -Tilano)
                 Manual de operación de cámaras Sony broadcast PVW-500

jueves, 5 de octubre de 2017

¿Es lo mismo 4K y UHDTV?

¿Es lo mismo 4k y UHDTV?

Vamos por partes:

La UHD de televisión o ultra alta definición de televisión es una tecnología de captación, transmisión y recepción definida y publicada por la norma REC ITU 2020 en el año 2012 y que contempla 2 tipos de formatos la UHD-1 y la UHD-2 y a veces aparecerá el término QFHD como Quad Full High Definitión o cuatro veces la alta definición

El termino 4K tiene su origen en el mundo del cine, apareció a raíz de una serie de pruebas sobre película de 35 mm., donde buscaban confirmar la máxima resolución que podía percibir el ser humano.
La conclusión fue que en horizontal el ser humano podía apreciar 4096 pixeles con una relación de aspecto de 1,9:1, lo que supone que una imagen completa tendría 8,8 Megapixel. Pero observemos lo siguiente: Con una relación de aspecto 1,78:1 o 16:9 multiplicada x 4 tendremos una resolución de 3860x2160 que coincide con la UHD ó QFHD, una imagen 4k pura, ocuparía algo más de espacio en horizontal.

¿Y qué diferencia hay entre las dos tecnologías?

Pues en detalles como la resolución, el frame rate o frecuencia de cuadro o la codificación, en el cuadro siguiente todo queda mas claro.




QFHD
UHDTV-1
UHDTV-2
4K
RESOLUCIÓN
3840pixeles x 2160 líneas
3840píxeles x 2160 líneas
7680 píxeles x 4320 líneas
4096 píxeles x
2160 líneas
FORMATO DE ESCANEO DEL SENSOR
Progresivo
Progresivo
Progresivo
Progresivo
PROFUNDIDAD DE COLOR
Distrib. 8 bits
Producc. 10Bits
10-12 bits
10-12 bits
8 bits
FRECUENCIA DE CUADRO
50 y 60 Hz
100-120 Hz
100 y 120 Hz
24 F.P.S
ESPACIO DE COLOR
ITU-R REC. 709
ITU-R REC BT.2020
ITU-R REC BT.2020
ITU-R REC BT.2020
MUESTREO DE COLOR
Distrib. 4:2:0
Producc. 4:2:2 y 4:4:4
Distrib. 4:2:0
Producc. 4:2:2 y 4:4:4
Distrib. 4:2:0
Producc. 4:2:2 y 4:4:4
Distrib. 4:2:0
Producc. 4:2:2 y 4:4:4
RELACION DE ASPECTO
16..9
16..9
16..9
16..9





Dentro de un sensor de imagen con una capacidad de resolución de 4096x2160 con relación de aspecto 1,8:1 el sistema de captación tiene, varias medidas para registrar la imagen.




                                                                                                  Autor: Rafael López de la Cruz

                                                                                                  Fuentes: TilanoTV y IRTVE

martes, 18 de octubre de 2016

Esos Periodistas


                                                

    Bonita profesión, bonita, llena de momentos, instantes para la historia.

   La capacidad de contar, de comunicar o divulgar un acontecimiento, suceso, invento o progreso científico para que la población sea consciente de lo que ocurre.

  Es un ejercicio precioso pero lleno de responsabilidad pues, no en pocos casos lo que se publica en los periódicos, lo que se emite en televisión o por la radio o lo que se difunde por internet o las redes sociales, influye sobre el pensamiento y la opinión del publico que consume ese mensaje.

   De esta forma, el o la  periodista puede modificar una opinión según con qué intención realice su trabajo.

  ¿Cómo debería actuar todo periodista?  
  
  En mi opinión con equilibrio ¿Neutralidad? por su puesto, aunque nadie en su fuero interno es neutral, todas y todos tenemos nuestras preferencias y gustos, pero el/ o la periodista es diferente a los demás porque está formado para tener capacidad de análisis, de síntesis, capacidad de investigación y de contrastación de datos, capacidad de interrogación.

    Un o una periodista puede dar luz a un tema confuso, puede hacer el trabajo que los demás no podemos, tiene a su favor leyes que le permiten expresarse libremente pero también tienen límites que no deberían sobrepasar.

    Una  o un periodista no debería servir a ninguna empresa, a ninguna ideología política, a 
ningún lobby, a ningún grupo de interés.

   Un o una periodista debe ser libre, completamente libre para elegir las palabras que usa, 
dónde las usa, cómo las usa, por qué las usa y cuándo las usa.  Y para poder hacer esto, un o una periodista debe dedicar todo su tiempo a esta función, evitar la polivaléncia en funciones propias de otras categorías laborales como gestionar y dirigir medios de comunicación, que para eso están los licenciados en dirección y gestión, no deberían conducir los vehículos que le lleva la la noticia, que para eso existen los conductores profesionales, no deberían editar videos que para eso están los y las montadores y editores de video, no deberían captar el sonido con los micrófonos, que eso lo hacen muy bien los técnicos de sonido, como tampoco deberían coger una cámara de video o una cámara de foto, pues para eso existen y están sobradamente preparados los reporteros gráficos de TV y los fotógrafos profesionales de prensa.

   Las y los periodistas deben estar al día de lo que pasa en el barrio, en la ciudad, en el país y el mundo y cuando reciben el encargo de un tema concreto deben tener tiempo para, 
documentarse, acudir a entrevistas y ruedas de prensa en las que realizar preguntas ya preparadas y otras que surjan sobre la marcha, INSISTO, deben acudir a las entrevistas y ruedas de prensa, y ¿Por qué digo esto y lo puntualizo?, porque en mi labor diaria, observo cada vez con mayor frecuencia en las ruedas de prensa y actos para la prensa, menos periodistas haciendo preguntas inteligentes, los cámaras de TV grabamos lo que el señor o señora de turno quiere decir y punto, no hay preguntas o como mucho pregunta alguien del propio gabinete de comunicación de ese mismo grupo, empresa, partido político, etc…

    Algunos de “Esos Periodistas”, se quedan sentados en la redacción, esperando que lleguen las grabaciones de video y sonido y las notas de prensa posteriores al acto fabricadas por agencias de noticias y por los propios gabinetes de comunicación de empresas, grupos políticos, etc… para con todo ese material, elaborar una mediocre noticia, sesgada, amputada y sin fundamento, que al espectador, lector u oyente, no le aporta nada, no le aclara nada, no le crea opinión alguna, “Esos Periodistas” cada vez en mayor número están destruyendo esa bonita profesión, unos porque han perdido la ilusión, otros aún no la han encontrado y ni siquiera la buscan y otros es que simplemente no dan para más.

   Mi opinión como otras muchas es discutible, es fruto de muchos momentos de impotencia, de horas de trabajo perdidas, desperdiciadas, de ganas desinfladas por culpa del desinterés del “Ese Periodista” que un día te toca. Esto no es fruto de un calentón, llevo tiempo con ganas de escribir sobre el tema y éste es el resultado, podría añadir que esa desilusión o falta de interés de muchos compañeros periodistas está motivada por las denigrantes condiciones laboral es que incorporan las empresas en sus convenios, con la firma y el beneplácito de los sindicatos que luchan poco o nada por volver a situaciones mejores, pero los profesionales de la redacción son en la mayoría de los casos los mássumisos con esos cambios, con esas pobres condiciones laborales y yo solo veo una razón, la ambición, ya que en cualquier empresa de comunicación la posibilidad de llegar a tener un cargo de dirección, solo recae en los periodistas algo, a lo que ninguno/ninguna 
debería aspirar.





martes, 13 de octubre de 2015

Agradecimientos a mi amigo y siempre compañero Tilano

http://tilanotv.es/general/herramientas-de-un-reportero-i/

Es todo un honor para mí que un profesional de la Talla de Tilano, haya tenido a bien interesarse por mi trabajo de difusión y más aún, publicar el apartado de pagina web llamado blog, mi reportaje sobre el trabajo que desarrolla un reportero gráfico en su labor diaria. ¡Gracias Amigo!

lunes, 12 de octubre de 2015

Doñana es para siempre


La defensa y protección de Doñana es incuestionable, pero por los motivos que sea sigue teniendo problemas muy graves, entre todos ellos destaco el agua, cada vez está más seca, por muchos motivos, aunque la mano del hombre, en vez de poner su ingenio y voluntad para solucionarlo, se queda parado, no sabe o no quiere ver el futuro de una Doñana seca.





Este reportaje realizado en Mayo 2015 es un homenaje a este paraje natural y a los profesionales que trabajan dentro, científicos y técnicos que día a día con ilusión, siguen difundiendo y protegiendo lo mejor de la naturaleza.

Texto de Rafael López y Eladio Hernández
Imagen de Rafael López de la Cruz

jueves, 25 de junio de 2015

Herramientas de un Reportero Gráfico

En este enlace, podeis conocer cuales son las herramientas audiovisuales que un reportero gráfico utiliza en su día a día para contar las historias que acontecen ante sus ojos.



Es mejor utilizar el explorador Chrome, nunca el Explorer

viernes, 10 de abril de 2015

algo más sobre los archivos RAW y sobre los archivos LOG


Cuando un sistema de captación de imagen apuesta por uno de estos dos tipos de archivos para guardar información grafica, está buscando obtener la mayor información del sensor.
   La información RAW son datos obtenidos del sensor antes de realizar cualquier proceso en la imagen. Debido  a que cada píxel contiene un solo valor (nivel de gris), la información de un archivo RAW no puede ser vista en un monitor.
   Una señal de vídeo puede dar información tanto de brillo como de color, de aquí deducimos que la información RAW no es información de vídeo. Para poder visualizar esta información, debemos realizar una conversión en post-producción a través de un proceso llamado De-Bayer que da valor a los pixeles con información del brillo y del color.
   La ventaja de grabar en RAW es que ninguno de los procesos de conversión a vídeo  modifica la imagen, el sensor transmite lo que ve sin ajustes de blanco, ISO, color, etc..
   Esto ofrece mucha flexibilidad para retocar y modificar los parámetros en post-producción.
   Aunque todas las cámaras obtienen la información gráfica en RAW, no todas permiten guardar esos datos antes de transformar la información a señal de vídeo, la gama de cámaras RED ONE guardan la información en RAW, la Sony F65 también guarda archivos de imagen en RAW además de vídeo HD y la ALEXA de ARRI puede transmitir la información RAW a través de una conexión SDI mientras guarda información de vídeo de forma interna.
   A estas alturas me surge una duda. ¿Si la información RAW es la nativa del sensor, es una información descomprimida?
   Pues no, los archivos RAW están comprimidos, pero esto no significa que se produzcan pérdidas, si el factor de compresión no es muy alto y al logaritmo utilizado no es agresivo la información una vez descomprimida será de la misma calidad que antes de ser comprimida.
   Las opciones de compresión van desde 3:1 a 18:1, una compresión llamada loss less provocará poca o nula pérdida de calidad.
   La información RAW habitualmente está comprimida en estos factores. La profundidad de color que maneja RAW es de 12 a 16 bits, mientras que en vídeo se rebajan estos datos a 8 ó 10 bits, también se reduce la información de color que pasa de 4:4:4 a 4:2:2

   Sony, Canon y Arri desarrollan nuevas cámaras con un sistema de archivos gráficos llamado LOG.
   Cuando este modo está activado, la imagen se vuelve plana y descolorida, sin contraste, desaturada, pero la puedes ver en un monitor, de aquí se deduce que la imagen LOG es información de vídeo y los archivos RAW no.
  
           
                    Imagen Log                           

¿Y por qué grabar en LOG?
   De esta manera conseguimos una imagen de mayor rango tonal, pero tiene que ser corregido para visualizarla en un monitor mediante los llamados setting de visionado LUT (look up table).
   Sony, Canon y Arri aplicaron la tecnología del escaneo LOG a sus sensores para conseguir la mayor información mapeando o escaneando la curva de gamma LOG.
   Sony la llama S-LOG,  para Canon es LOG y para ARRI LOG C.
   Debido a que LOG es una imagen de vídeo, la manipulación de balances de blancos e ISO no es posible ya que se encuentran incrustados en el formato.
¿En qué consiste la grabación en LOG?
   Log es un sistema de archivo gráfico de datos procedentes del sensor de imagen. El sistema escanea todo el sensor y esa información la guarda en un formato de almacenamiento llamado LOG, se procesa para obtener el mayor rango tonal posible (diferencias entre luces y sombras) y el resultado se transforma en valores de brillo, por eso obtenemos una imagen casi en blanco y negro, muy lavada, con poca información de color.
Escrito por: Rafael López de la Cruz
Fuentes: https:directordefotografia.wordpress.com/2013/03/04/mi_vision_particular_sobre_el_raw

lunes, 23 de marzo de 2015

Un granito de arena para la lucha contra el cáncer infantil

http://www.rtve.es/drmn/embed/video/3055594

   No hay muchas oportunidades en las que te ofrecen actuar de forma directa para conseguir un objetivo solidario, para ayudar a otros. Esto me paso hace un mes. Un compañero de trabajo me propuso colaborar en la realización de un reportaje, contaba la historia de dos niños enfermos de cáncer, uno de ellos "Rafa" no superó el reto, el otro Manuel sí y quería hacer algo para honrar a su amigo, me gustó la historia y decidí aportar lo mejor que se hacer, fabricar historias a través de imágenes. Este es el resultado.



                                             http://www.rtve.es/drmn/embed/video/3055594

domingo, 14 de diciembre de 2014

¿Qué es XAVC, formato de grabación o códec de compresión?

   

    Actualmente hay una gran cantidad de sistemas de grabación y trasmisión de imágenes y audio que van desde varios Kb/s hasta los 1,2 Gb/s, una velocidad suficiente para tecnologías 4K con muestreo a 14 bits y frecuencias de más de 100 cuadros por segundo.

  Los miembros del grupo JVT (Joint Vídeo Team) trabajaron para definir una norma de codificación y su esfuerzo se concretó en el desarrollo del formato AVCHD y la ampliación de los niveles y perfiles del H.264.

    XAVC es el formato de grabación introducido por la marca Sony en Octubre de 2012, cumple la norma H.264 nivel 5.2, encapsulando la información en paquetes MXF OP-1ª. El XAVC se creó para desarrollar herramientas de producción profesional capaces de manejar imágenes en HD con alta frecuencias de cuadros (HFK) e imágenes 4K de forma económica.

   Si bien es verdad que este formato posee más algoritmos de compresión (H.264 nivel 5.2) que permiten tener archivos muy reducidos, tiene en su contra, la necesidad para conseguirlo de utilizar una tecnología informática muy potente. Por eso en la actualidad, gran parte de la industria broadcast se apoya en el formato MPEG-2 HD  LONG GOP a 50 Mb/s para fabricar contenidos de HDTV, debido al pequeño tamaño de ficheros, su alta calidad de imagen y sus escasos requisitos informáticos.



    En la figura anterior podemos observar y comparar la descodificación de varias señales de video en una plataforma informática. En el eje horizontal se representas los cuadros por segundo, siendo evidente que el formato MPEG-2 HD a 50Mb/s es el formato más rápido.

¿Entonces qué es el XAVC S?
    Nació en Abril de 2013, diseñado para el mercado de consumo, soporta resoluciones de 3840x2160 ppp (4K Televisión), usa el MP4 como formato de envase de vídeo y el AAC o LPCM para el audio. Dispone de un códec de compresión basado en el MPEG-4 AVC/H.264, aunque la pregunta es si realmente hace falta el 4K.

   Bueno aun es difícil conseguir monitores, televisores con definición 4K, tanto por el precio como por el stock. Pero con un equipo de producción que posea esta tecnología, podemos adaptarnos a cualquier formato inferior y crear producciones, contenidos grabados en 4K y convertidos a HDTV 1080x1920 ppp. Siempre es mejor tener el material de origen de la mejor calidad posible.

Para más información:

martes, 9 de diciembre de 2014

De dónde viene el H.264?



   Haciendo un poco de historia, viajamos al año 1988, en el mes de Noviembre de ese año la Unión Internacional de Telecomunicaciones (ITU) ratifica el estándar de compresión H.261. Diseñado para la transmisión a través de líneas RDSI y con capacidad de operar a tasas de bits desde 40 Kbits/s a 2Mbits/s,   soportando los siguientes  tamaños de fotogramas de vídeo: 
CIF:   352x288
QCIF:  176x144 (medidas en pixeles)
con un muetreo 4:2:0. 
Formatos pensados para Cámaras de videovigilancia, que necesitan poco espacio en el disco duro.

   En 1995/1996 aparece el estándar H.263 (ITU) y en el mismo documento se detallan las características  del MPEG-4 (Moving Picture Expert Group), El H.263 se diseñó para videoconferencias, está optimizado para tasas inferiores a 64Kbits/s y con un movimiento relativamente reducido. El H.263 se creó a partir del H.261, el cual sirve para el desarrollo del MPEG, concebido para tasas binarias más elevadas.

   En 2003 se termina de gestar el códec de alta compresión de video H.264 o MPEG-4 parte 10, Producido conjuntamente por la ITU, VCEG (Video Coding Expert Group) y el ISO/IEC de MPEG (Motion Picture Extpert Group). La premisa fue desarrollar un códec de alta compresión que fuera capaz de proporcionar una buena calidad de imagen con tasas de bits inferiores a los estándares previos: MPEG-2, H.263 o MPEG-4 parte 2. El nombre primario del códec  era ITU-T H.264 MPEG-4 parte 10 y de aquí surgió el nombre híbrido H.264-MPEG-4 AVC.



AVC. Codec de video avanzado.

Más información en:
www.digimad.es/h261-h263-h264-codecs-video.html


H.264 mpeg-4 parte 10/AVC

   Este códec es capaz de reducir el tamaño de un archivo de video digital en más de un 80% si se compara con el Motion JPEG y hasta en un 50% comparado con el estándar MPEG-4 parte 2.
Este estándar se ha utilizado para los nuevos teléfonos móviles, reproductores y grabadores digitales, sistemas de videovigilancia, etc…

   El H.264 tiene 7 perfiles destinados cada uno de ellos a una clase concreta de aplicaciones, cada perfil define un conjunto de características para el codificador y limita la complejidad de implementación del decodificador.

   Además el H.264 tiene 11 niveles o grados para limitar los requisitos de rendimientos, ancho de banda y memoria. Cada nivel define la frecuencia de bits y la frecuencia de codificación en macrobloques/s, para resoluciones que van desde el QCIF al HDTV y más allá, a más resolución mayor nivel requerido.

Niveles.

Número de nivel
Max. macrobloques por segundo
Max. tamaño de trama (macrobloques)
Max. video bit rate (VCL) para Baseline, Extended and Main Profiles
Max. video bit rate (VCL) para High Profile
Max. video bit rate (VCL) para High 10 Profile
Max. video bit rate (VCL) para High 4:2:2 and High 4:4:4 Predictive Profiles
Ejemplos para alta resolución @
frame rate
(max stored frames)
in Level
1
1485
99
64 kbit/s
80 kbit/s
192 kbit/s
256 kbit/s
128x96@30.9 (8)
176x144@15.0 (4)
1b
1485
99
128 kbit/s
160 kbit/s
384 kbit/s
512 kbit/s
128x96@30.9 (8)
176x144@15.0 (4)
1.1
3000
396
192 kbit/s
240 kbit/s
576 kbit/s
768 kbit/s
176x144@30.3 (9)
320x240@10.0 (3)
352x288@7.5 (2)
1.2
6000
396
384 kbit/s
480 kbit/s
1152 kbit/s
1536 kbit/s
320x240@20.0 (7)
352x288@15.2 (6)
1.3
11880
396
768 kbit/s
960 kbit/s
2304 kbit/s
3072 kbit/s
320x240@36.0 (7)
352x288@30.0 (6)
2
11880
396
2 Mbit/s
2.5 Mbit/s
6 Mbit/s
8 Mbit/s
320x240@36.0 (7)
352x288@30.0 (6)
2.1
19800
792
4 Mbit/s
5 Mbit/s
12 Mbit/s
16 Mbit/s
352x480@30.0 (7)
352x576@25.0 (6)
2.2
20250
1620
4 Mbit/s
5 Mbit/s
12 Mbit/s
16 Mbit/s
352x480@30.7(10)
352x576@25.6 (7)
720x480@15.0 (6)
720x576@12.5 (5)
3
40500
1620
10 Mbit/s
12.5 Mbit/s
30 Mbit/s
40 Mbit/s
352x480@61.4 (12)
352x576@51.1 (10)
720x480@30.0 (6)
720x576@25.0 (5)
3.1
108000
3600
14 Mbit/s
17.5 Mbit/s
42 Mbit/s
56 Mbit/s
720x480@80.0 (13)
720x576@66.7 (11)
1280x720@30.0 (5)
3.2
216000
5120
20 Mbit/s
25 Mbit/s
60 Mbit/s
80 Mbit/s
1280x720@60.0 (5)
1280x1024@42.2 (4)
4
245760
8192
20 Mbit/s
25 Mbit/s
60 Mbit/s
80 Mbit/s
1280x720@68.3 (9)
1920x1088@30.1 (4)
2048x1024@30.0 (4)
4.1
245760
8192
50 Mbit/s
62.5 Mbit/s
150 Mbit/s
200 Mbit/s
1280x720@68.3 (9)
1920x1088@30.1 (4)
2048x1024@30.0 (4)
4.2
522240
8704
50 Mbit/s
62.5 Mbit/s
150 Mbit/s
200 Mbit/s
1920x1088@64.0 (4)
2048x1088@60.0 (4)
5
589824
22080
135 Mbit/s
168.75 Mbit/s
405 Mbit/s
540 Mbit/s
1920x1088@72.3 (13)
2048x1024@72.0 (13)
2048x1088@67.8 (12)
2560x1920@30.7 (5)
3680x1536/26.7 (5)
5.1
983040
36864
240 Mbit/s
300 Mbit/s
720 Mbit/s
960 Mbit/s
1920x1088@120.5 (16)
4096x2048@30.0 (5)
4096x2304@26.7 (5)
Número de niveles
Max. macrobloques por segundo
Max. tamaño de trama (macrobloques)
Max. video bit rate (VCL) for Baseline, Extended and Main Profiles
Max. video bit rate (VCL) for High Profile
Max. video bit rate (VCL) for High 10 Profile
Max. video bit rate (VCL) for High 4:2:2 and High 4:4:4 Predictive Profiles
Ejemplos para alta resolución @
frame rate
(max stored fram



Fuente: Axis Comunications