El contenedor blanco

miércoles, 4 de noviembre de 2020

Orígenes de la Industria Satelital Argentina


Motivación y orientación

Esta entrada está orientada al público general y busca ser la primera de una serie de publicaciones que tendrán como centro la industria espacial, haciendo hincapié en la industria satelital argentina. La intención de este artículo es que sea amigable a todo tipo de lectores.
En esta primera publicación nos encontraremos con una brevísima recapitulación de los primeros pasos de nuestra especie hacia la órbita extra atmosférica de nuestro planeta. Sobre los proyectos satelitales de las potencias mundiales ya se ha escrito bastante, por lo que nuestro Contenedor Blanco tomará los colores albicelestes y veremos cuál fue el rol de nuestra República en esta selecta tarea. Me atrevo a adelantar que el mismo no fue, ni tampoco lo es hoy en día, para nada menor.

Antecedentes

Un satélite es un objeto que órbita alrededor de un cuerpo de mayor tamaño. Existen dos tipos de satélites, los naturales (siendo la Luna el ejemplo más claro de éstos) y los artificiales (destacándose la Estación Espacial Internacional)

Existen centenares de satélites naturales en nuestro sistema solar, cada planeta tiene al menos una luna; por ejemplo, Saturno cuenta con más de 53 satélites y por 13 años (2004 - 2017) tuvo uno artificial, la sonda Cassini, que exploró al planeta, sus anillos y sus lunas.

Todo satélite artificial, ya sea tripulado o robótico cuenta con tres sistemas necesarios para su funcionamiento: un sistema de alimentación (que puede ser solar o nuclear), un sistema de control de altitud y una antena para transmitir y recibir información; existen otros que cuentan con cámaras o detectores de partículas.

A pesar de que nuestro planeta se encuentra rodeado por más de 3500 satélites artificiales operativos (8000 si agregamos aquellos que hoy en día no son más que basura espacial y un testimonio de la capacidad humana), estos dispositivos no se materializaron hasta mediados del siglo veinte. El primer satélite fue el soviético Sputnik, de tamaño y forma comparables al de una pelota playera, que fue lanzado desde la superficie terrestre el 4 de octubre de 1957.

Esta acción remarcable de los miembros del pacto de Varsovia sorprendió a los occidentales, que no creían que éstos tuviesen la capacidad de enviar satélites más allá de la atmósfera. Para mayor asombro de los hespéricos, los soviéticos lanzaron el 3 de noviembre de 1957 un satélite de dimensiones aún mayores, llamado Sputnik 2. Por esto, los Estados Unidos lanzaron el Explorer 1 en enero de 1958 que, con 13kg, representaba el 2% de la masa del último satélite comunista, y dio por inicializada la carrera espacial que duraría por lo menos hasta el final de la década de los sesenta; desde ese momento los intereses de ambos bandos se diferenciarían, mientras que los americanos se concentraron en enviar humanos a la luna (que lo lograrían con la misión Apollo 11 en 1969), los rusos decidieron crear la primer estación espacial, Salyut 1, en 1971.


Aquellos primeros satélites que nacieron como herramientas políticas, evolucionaron en sistemas de observación de la superficie terrestre, con aplicaciones ambientales, meteorológicas, de seguridad y defensa de las naciones; no debemos olvidarnos de su rol tal vez más conocido, el de enlaces de comunicaciones, permitiendo llamadas de larga distancia, difusión de televisión en vivo, como también la conexión a internet en zonas a las que los medios físicos convencionales no tienen acceso. Esto atrajo el interés de muchas más naciones y emprendedores privados a los objetos que orbitan alrededor de nuestro cuerpo celeste.

Gracias a la miniaturización de las computadoras y otros componentes electrónicos y mecánicos, hoy en día resulta posible enviar satélites mucho más pequeños y económicos, que tienen usos muy variados, como la recolección de datos para la ciencia o tareas relacionadas a las telecomunicaciones, entre otras.

Participación de la Argentina en la historia de la Industria Espacial

Durante las décadas de los sesenta y setenta, se estableció la Comisión Nacional de Investigaciones espaciales (CNIE) que bajo la administración de la Fuerza Aérea Argentina llevó a cabo una serie importante de desarrollos, entre ellos los cohetes sondas, la instalación de una antena en Mar Chiquita para establecer contacto con el satélite Landsat y el intento de instaurar en el país el uso de imágenes satelitales. Esta comisión dirigida por el Comodoro Aldo Zeoli, lanzó un número importante de cohetes de diseño propio, se convirtió en el tercer país en lanzar un cohete desde la Antártida (dos cohetes Gamma Centauro en 1965) y en el cuarto en enviar un ser vivo al espacio y retornarlo con vida (el ratón Belisario a bordo de un Orión II en 1967 y el mono Juan a bordo de un Canopus II en 1969)

Posteriormente, se desarrolló el primer plan de Satelización en 1979 al mando del comandante en jefe Omar Rubens Graffigna, comenzando así el proyecto Cóndor I. En paralelo al trabajo de la CNIE, el Instituto de Investigación Aeronáutica y Espacial (IIAE) comenzó con diferentes proyectos para construir cohetes capaces de poner satélites en órbita, los cuales nunca superaron el estado de maquetas.

El primer satélite de la Argentina en ser puesto en órbita fue el Lusat 1 en 1990, el mismo fue diseñado por un grupo de radioaficionados que tenía como objetivo proveer comunicaciones a todos los radioaficionados del mundo; la construcción del mismo se realizó parte en nuestro territorio gracias a AMSAT Argentina, siendo terminado en AMSAT NA, ubicada en Boulder, Colorado en los Estados Unidos de América.

El último proyecto encarado por la CNIE fue la construcción del misil Balístico Cóndor II de alcance medio (1000 km) con una capacidad de carga de 500 kg. El proyecto fue desarrollado conjuntamente con Alemania (quien proveyó la tecnología), Irak y Egipto (quienes financiaron el proyecto) mientras que Argentina aportaba el personal científico y las instalaciones. La versatilidad del diseño del misil fueron tales que, además de poder cargar media tonelada de explosivos, podía llevar una cabeza nuclear (que supuestamente no se diseñó por no disponer el material radioactivo adecuado) como también poder lanzar satélites a la órbita terrestre, sin la necesidad de tener que recurrir a las agencias espaciales norteamericanas, rusas o francesas. En 1989 este misil fue desmantelado por el presidente Menem, por presiones de los Estados Unidos, el Reino Unido e Israel (temerosa de que hubiese un intercambio tecnológico entre la Argentina con sus enemigos árabes) y presiones económicas del FMI.

En 1991, Menem disuelve la CNIE para formar la Comisión Nacional de Actividades Espaciales (CONAE) con su base de operaciones en Falda del Carmen, Córdoba.

Víctor 1

Luego de la cancelación repentina del Proyecto Cóndor II, varios de los integrantes del equipo de trabajo decidieron no quedarse de brazos cruzados y continuar con algunos de los objetivos que tenían planteados lograr una vez completado el desarrollo del misil argentino. Gracias a la capacidad de carga proyectada para el Cóndor II, una de los usos proyectados para el mismo era el lanzamiento a órbita de sondas y satélites nacionales. Ante la imposibilidad de lanzarlos autónomamente, ellos decidieron comenzar en el año '92 con el desarrollo del que sería el primer satélite diseñado y construido en su totalidad en suelo argentino.

Los proyectistas lograron conseguir el apoyo de la provincia de Córdoba y se aseguraron un presupuesto de un millón de pesos, cifra que tal vez parezca grande considerando que en esa época estaba en funcionamiento el famoso "uno a uno" por lo que cada peso era equivalente a un dólar, pero que palidece en comparación a la de cualquier misión satelital extranjera. Debido a ésto, el equipo se las tuvo que ingeniar para que los fondos alcanzaran.

Era un proyecto muy distinto al que estaban acostumbrados, pasaron de un cohete que pasaría unos segundos en vuelo a un satélite que estaría tres años en el espacio, sin posibilidad de recibir asistencia ante cualquier desperfecto o falla de diseño. Pero si algo caracterizó a este grupo de profesionales, fue la capacidad de adaptación y de aprendizaje que les permitió encarar y cumplir con esta epopeya.

La media de edad del equipo era entre los treinta y cuarenta años, y resultó vital la incorporación de gente joven del Instituto Universitario Aeronáutico (IUA) y de la Universidad Nacional de Córdoba (UNC). Los jóvenes aportaron un aire renovador y lleno de ganas de hacer, que junto a la experiencia y el conocimiento de sus compañeros más veteranos, trabajaron a la par para superar los problemas con los que se encontraron a lo largo del desarrollo del satélite. Frente a este reto tecnológico, respondieron con dedicación, versatilidad e ingenio.

Una misión tan ambiciosa como la de desarrollar un micro satélite, demandó del trabajo tanto de especialistas en aeronáutica como de electrónicos. Una de las tareas más relevantes llevadas a cabo por los primeros fue la construcción de instrumentos de ensayo con la intención de simular algunas de las condiciones con las que se encontraría el Víctor en su recorrido alrededor de nuestro plantea, caracterizadas por los altos niveles de estrés térmico, sonoro y vibratorio. Que el satélite fuese a funcionar en el espacio “era un signo de interrogación muy grande”, más aún si consideraban todas los componentes que se adaptarían para el mismo, algunas de las cuales no puedo dejar pasar por algo. Por esta razón, las pruebas que fueran a realizar tomaron una importancia crítica. Se recurrió a las instalaciones de FAdeA (Fábrica Argentina de Aviones) y todos los ensayos que se allí en la cohetería: choque térmico ocasionado por las variaciones enormes de temperatura a la que iba a estar expuesto el Víctor, cámara de vacío, pruebas de choque de sonido para simular el estrés del lanzamiento, entre otras.

Como el satélite estaba destinado a trabajar en el vacío del espacio, no se podía recurrir a la convección para la refrigeración de los componentes, por lo que los ingenieros aeronáuticos debieron realizar un exhaustivo estudio del mapa térmico del satélite. Como resultado del mismo, decidieron construirlo en aluminio en disposición de panal de abeja (en inglés, honeycomb) para asegurar la disipación por conducción.

Los electrónicos, por su parte, debieron ocuparse de desarrollar las respuestas tecnológicas para que el satélite pudiese cumplir con su misión de captura y transmisión de fotografías de nuestro cuerpo celeste, por lo que también fueron los responsables de los sistemas de control y comunicación del Víctor. Y que, a su vez, no podrían siquiera haber funcionado satisfactoriamente si no hubiesen respondido al estudio de balance energético que llevaron a cabo, en el cuál establecieron las baterías que lo alimentarían y los paneles solares encargados de mantener a las mismas funcionales a lo largo de la vida útil prevista de tres años.

Con respecto a la adquisición de imágenes, el satélite contaba con dos cámaras, una de campo amplio y una de campo estrecho, y para la transmisión de las mismas hacia la estación terrena trabajaron con un par de antenas de banda S se construyeron con una gran colaboración en el diseño por parte del Ing. Trainotti y el Ing. Di Giovani del Área Antenas de  CITEFA, hoy CITEDEF. Su estructura fue de teflón y la espiral de cobre y tenían como cometido que la imagen capturada llegara a tierra diez segundos después de que ésta fuera tomada. Por otro lado, se construyeron las antenas de banda VHF (baliza) en fibra de carbono, lo que permitió que viajaran plegadas y pudieran estirarse en el momento del vuelo independiente del satélite.

Como contraparte del las soluciones que los aeronáuticos debieron encontrar frente al choque térmico, los electrónicos tuvieron que prever la radiación cósmica y la pérdida de prestaciones que ésta podía representar, por lo que decidieron no trabajar con tecnología CMOS y llevaron a cabo el diseño con tecnología discreta, evitando de esta forma que el bombardeo de partículas cósmicas destruyera partes esenciales de la electrónica.


Cancelado el proyecto del Cóndor II, nuestro país perdió la posibilidad de lanzar desde el territorio nacional y bajo supervisión íntegramente local, cargas al espacio. Debido a esto, el equipo de trabajo debía recurrir a otro país para poder poner en órbita su satélite, siendo éste uno de los mayores costos de la misión. El país elegido fue la Federación Rusa. 

Los rusos estaban muy preocupados por que no hubiera problemas con la separación, ya que el Víctor no era el único pasajero en el cohete; iba acompañado de dos satélites militares rusos y uno checoslovaco. Los eslavos no querían que el satélite albiceleste se desviara y chocara ni contra sus satélites ni contra los almacenes de combustible y los motores que se encontraban en el otro extremo. Esto demandó de un gran esfuerzo en el desarrollo del mecanismo de separación y en las pruebas de la misma.


El Ing. Torre Sanz diseñó un resorte que era el componente crítico para asegurar la separación. El resorte iba comprimido todo el trayecto hasta que un bulón explosivo era accionado y liberaba al resorte, el cual naturalmente buscaba descomprimirse y llegar al equilibrio. El resorte debía realizar un esfuerzo axial perfecto, por lo que recurrió al resorte del embrague de un FIAT 128. Luego de hacer múltiples pruebas a éste y otros resortes, se comprobó que el del auto italiano cumplía con las características buscadas.


Pero los especialistas de la flamante federación bicontinental, no se contentaron con creer los reportes de las pruebas de separación sino que demandaron presenciar en persona las mismas y detallaron las especificaciones a las que se debía atar el sistema. En esta etapa se puede apreciar como el ingenio de los proyectistas nuevamente sorprende, ya que decidieron unir dos manteles cuadriculados, formando así una cuadrícula de siete metros que les permitía probar que el sistema no presentaba desviación angular a la hora de liberarse el resorte, asegurando así una correcta y segura separación del cohete.

Había sido poco tiempo después de Malvinas, por lo que no sabían afuera del país si lo que compraban era para la guerra o para la paz por lo que nadie les quería vender. Ante esta complicación y el ajustado presupuesto, los miembros del equipo se las ingeniaron para cumplir la misión. Entre estas adaptaciones se encuentra el uso de una cámara de portero eléctrico, o el encierro de las ruedas de inercia encargadas de estabilizar el satélite en recipientes con gases inertes para evitar que el barniz de sus bobinados se evaporaran en el vacío del espacio. Además el transmisor de UHF Vertex 7011 lo compró el Ing. Passini en un shopping, era el mismo que usaba la policía, ya que como él nos contó “si lo usa la policía y le pega garrotes, ¿Cómo no va a durar en el espacio un par de años?”. Igualmente tuvieron que adaptar la etapa de salida del mismo ya que era muy potente.

El 29 de agosto de 1996 desde el cosmódromo de Plesetsk en Rusia, el Centro de Investigaciones Aplicadas del Instituto Universitario Aeronáutico (CIA) lanzaba el primer satélite concebido, diseñado y construido íntegramente en la República Argentina, el μSAT-1 Víctor. Una vez en órbita, fue bautizado con el nombre Víctor, en homenaje al Ing. Víctor Aruani, miembro difunto del equipo de desarrollo del satélite que no llegó a verlo terminado.


El grupo se vio muy alentado, antes y más aún después del lanzamiento; a diferencia del proyecto del Cóndor y la confidencialidad que lo rodeaba, podían hablar del tema y recibieron entrevistas de distintos medios. Como nos comentó el Ing. Passini: “Fue un primer paso para que la gente se acerque al tema, que se incorporen al CIA, al IUA. Fue un evento tecnológico que alentó la integración de gente a la ingeniería, y que se viera el acercamiento de la Fuerza Aérea con la sociedad.” Nos dijo que recuerda con mucho cariño el haber recibido la primer transmisión desde el satélite “me recibe y me contesta, fue de las mejores cosas que me pasaron". Y también nos comentó el ingeniero lo satisfactorio que es poder lanzar y completar un proyecto: "Empezar y terminar es un gran logro, llegar a hacer algo que cumple la finalidad con la que nació. Es algo trascendente.”

Comentarios finales

Personalmente elegí este tema porque siempre encontré en sumo interesante todo lo que compete a la astronomía, pero desde que comencé con mis estudios en la carrera de ingeniería electrónica ese interés se migró de la búsqueda de información sobre los cuerpos celestes a las herramientas desarrolladas por nuestra especie para estudiarlos. A pesar de los cientos de naciones que llamamos hogar a la Tierra, sólo un puñado de éstas cuentan con la capacidad de realizar estas misiones espaciales y no resulta para nada menor que entre ellas se encuentre nuestra querida República Argentina, que tanto ha logrado a pesar de todas las adversidades por las que le ha tocado, y todavía le toca, atravesar.

Aprovecho esta oportunidad para agradecerle nuevamente al Ing. Passini por habernos permitido una entrevista, en la cual nos contó su experiencia en el proyecto y contestó con paciencia todas nuestras dudas. También me gustaría agradecerle al Ing. Minutta por haber participado en la entrevista, contándonos los proyectos en los que él participó dentro CIA y de aquellos en los que están trabajando en la actualidad, y por las fotografías de la misión del Víctor que compartió con nosotros.

Autor: Santiago Bergallo, Estudiante de Ingeniería Electrónica. 

miércoles, 28 de octubre de 2020

La evolución de internet en Argentina

Internet, un avance tecnológico que ocurrió a finales de los años 90 y principios del 2000, revolucionó al mundo en todos los aspectos a tal punto que hoy en día es imposible imaginar un futuro sin estar conectado a la red. Tanto es así, que La Organización de Naciones Unidas, ONU, declaró el acceso a internet como un derecho humano debido a la importancia que tiene en la sociedad actual, esto se puede apreciar claramente en el contexto de la pandemia, donde permitió la continuidad de las actividades de los distintos sistemas y organizaciones.

Todo esto no sería posible sin una infraestructura que soporte toda la demanda de transferencias de datos requerida por los usuarios. Así como hubo una evolución a nivel digital, también lo hubo en lo físico más específicamente en los medios de transporte de datos, teniendo como última tecnología a la fibra óptica sin embargo existen otras alternativas no menos importantes que no podemos dejar de lado como el cable coaxial, par trenzado de cobre, antenas, etc.  ya que su aplicación va a depender de diferentes factores.

En este artículo vamos a presentar la situación actual de las telecomunicaciones en Argentina, el nivel de integración de internet con la sociedad, y el decreto 690/2020 que declara servicios públicos esenciales a los Servicios de las Tecnologías de la Información y las Comunicaciones (TIC) y el acceso a las redes de telecomunicaciones.

La ASIET (Asociación Interamericana de Empresas de Telecomunicaciones) nos presenta los siguientes datos:






Las estadísticas demuestran un claro desarrollo en las estructuras de las telecomunicaciones, una prueba clara de ello es como las redes han sostenido los aumentos de la demanda durante la cuarentena sin llegar a colapsar. Entonces si hubo un desarrollo relevante en la infraestructura, ¿Por qué seguimos con problemas al realizar una videoconferencia? Para responder esta pregunta debemos mencionar dos características principales de una conexión a internet, velocidad de descarga y subida de datos (download y upload). Frecuentemente tenemos en cuenta la velocidad de descarga ya que es el parámetro que resaltan los proveedores y lo que el usuario promedio mayormente requiere, dejando de lado el upload que es la velocidad en la que se transmiten los datos desde un dispositivo en particular hacia internet y que suele ser mucho menor que el download. Sin embargo, con la emergencia sanitaria en el cual nos encontramos, los requerimientos de gran parte de los abonados cambiaron, demandando mayor velocidad de subida de datos debido a las videoconferencias u otras actividades. Esta situación atípica probablemente planteará una reestructuración a los proveedores de internet en sus políticas de venta respecto a los parámetros mencionados anteriormente.

A continuación, se puede observar dos gráficos presentados por ENACOM de cómo se fue dando el avance con su respectiva tecnología y velocidad promedio a lo largo de los últimos años.


El día 21 de agosto del corriente año, se aprobó el decreto 690/2020 que declara servicios públicos esenciales a los Servicios de las Tecnologías de la Información y las Comunicaciones (TIC) y el acceso a las redes de telecomunicaciones que tiene como fin principal garantizar el acceso a dichos servicios a toda la población.  No es el primer país en tomar esta decisión, sin embargo, existe una diferencia con respecto a los demás, que es la regulación de las tarifas que se llevaría a cabo por el ente regulatorio, ENACOM.

 En el siguiente cuadro se muestra los países que adoptaron medidas similares con sus respectivas denominaciones.

 


En los países mencionados anteriormente, las tarifas están definidas por el mercado en competencia lo que conlleva a una inversión continua en infraestructura como se viene demostrando a lo largo de los últimos años.

Según distintas asociaciones a nivel nacional e internacional, el decreto 690/2020 tendrá un impacto negativo sobre la infraestructura de las telecomunicaciones a nivel nacional sin embargo todavía no hay suficientes datos estadísticos para poder generar un juicio al respecto.



Enlaces de interés

https://datosabiertos.enacom.gob.ar/dashboards/20000/acceso-a-internet/

https://asiet.lat/


Autor: Reynalde Paolo, Estudiante de Ingeniería Electrónica.



miércoles, 21 de octubre de 2020

Tecnología de punta: LoRa y LoRaWAN


Contexto


En este artículo vamos a hablar sobre el qué y cómo funcionan estas tecnologías, y veremos algunos ejemplos de aplicación de los mismas actualmente implementados.

Para entrar en contexto es importante definir que LoRa es una tecnología para comunicaciones inalámbricas, patentada por SEMTECH Co., que se basa en la modulación del espectro expandido, en particular la CSS (Chirp Spread Spectrum). Esta modulación permite una compatibilidad electromagnética con el resto de las comunicaciones que se encuentran viajando por el aire debido a que su baja velocidad de datos no interfiere con las del resto. De aquí deriva su nombre: LoRa por Low Ratio, aunque algunas bibliografías se lo acreditan a Long Range, la cual es otra característica de esta tecnología. El largo alcance se logra gracias a la baja velocidad de transmisión de datos, la robustez a las interferencias y a la baja frecuencia de trabajo. Todas estas características son atribuibles a la modulación.

Por otro lado, LoRaWAN (también llamado LPWA) se refiere a un protocolo de comunicación para redes de bajo consumo y de área expandida (Low Power Wide Area) diseñado para conectar inalámbricamente “cosas” al internet. Responde al concepto de IoT (Internet of Things) enfocándose en los requisitos clave para poder implementarlo de manera integral, como son: la comunicación bidireccional, la seguridad de un extremo a otro, la movilidad y los servicios de localización.

Recorriendo el modelo OSI



El ENACOM, cumpliendo su rol de ente nacional de comunicaciones, establece las bandas de frecuencias radioeléctricas que son declaradas de uso compartido en el ámbito del territorio nacional y no requieren de autorización para su uso, según la Resolución del Ministerio de Modernización Nº 581/18. Entre ellas podemos destacar la banda que abarca 915-928 MHz, la cual resulta una de las bandas en las que trabaja la tecnología LoRa. 

Se habilita el uso de distintas bandas de frecuencias ISM (industrial, scientific and medical) según la región, por ejemplo en Europa se permite la banda de 868 MHz, en Norte América 915 MHz, entre otras.

Modulación LoRa


Se llama Chirp Spread Spectrum, o CSS, y se utiliza en comunicaciones militares y espaciales desde hace décadas. La gran ventaja de la misma es que puede lograr comunicaciones a largas distancias (típicamente kilómetros) y tiene gran solidez frente a las interferencias. Este tipo de modulación de espectro expandido se basa en un desplazamiento lineal de la frecuencia portadora a lo largo de toda la banda, delimitada por las frecuencia de corte superior (fhigh) o inferior (flow).

En el siguiente gráfico se ilustra cómo se vería una señal de portadora antes y después de ser modulada, analizando la frecuencia de la misma en función del tiempo. Recordemos que si nos encontramos en Argentina, nuestra frecuencia central (fcenter) deberá estar dentro de la banda de 915 MHz.


Los conceptos a tener en consideración en CSS son: "chirp", "chip" y "spreading factor". 
  • Chirp se puede traducir como "barrido" y hace referencia al desplazamiento cíclico que tendrá la frecuencia portadora.
  • Chip hace referencia a los posibles saltos que puede presentar la portadora los cuales se traducen directamente en los posibles símbolos a transmitir.
  • Spreading Factor (SF) se refiere a la cantidad de bits con los que se codifica un símbolo.
En el siguiente ejemplo se ven ilustrados estos conceptos:



Si analizamos el último símbolo a transmitir (95), vemos que si codificación viene dada por el código: 95 = 1011111. Lo que nos dice que nuestro SF es 7. Y la cantidad de chips posibles es de 27 = 128.

Es importante tener en cuenta el SF a utilizar ya que influirá en parámetros como la duración de cada símbolo, que se conoce como Bit Rate, así como en el tiempo de transmisión del mensaje, conocido como Time on Air (ToA). A su vez está estrechamente ligado con la distancia alcanzable y la sensibilidad del sistema, la cual aumentará a la vez que aumente el ancho de banda a utilizar.

Las distancias alcanzables varían según los obstáculos con los que se topará la señal. En zonas urbanas ese rango puede variar entre 1-2 km mientras que en zonas rurales se pueden alcanzar distancias de 10-20 km. 

¿Cómo se implementa LoRaWAN?


Como vimos, LoRa trabaja en la capa física y es la encargada de habilitar el enlace de comunicación de largo alcance, mientras que LoRaWAN define el protocolo de comunicación y la arquitectura del sistema de red, siendo aspectos determinantes la vida útil de la batería de un nodo, como también en la capacidad de la red, la calidad del servicio (QoS) y la seguridad. 

Arquitectura de red


Generalmente la red LoRaWAN tiene una topología estrella. La arquitectura la conforman las pasarelas (Gateways), los nodos finales, servidor de red y servidor de aplicación. En una red LoRaWAN, los nodos no están asociados con un Gateway específico, por lo cual, los datos transmitidos por un nodo son típicamente recibidos por múltiples Gateways. Cada Gateway reenviará el paquete recibido desde el nodo final al servidor de red, a través de una red de retorno (Backhaul) ya sea celular, Ethernet, satelital o WiFi. En el siguiente gráfico se ve la topología de red descrita.


La inteligencia y la complejidad están a cargo del servidor de red. Su tarea es gestionar la red y filtrar los paquetes redundantes recibidos, realizar comprobaciones de seguridad, programar confirmaciones a través del Gateway óptimo y realizar adaptación a la velocidad de datos, conocido como Adaptative Data Rate (ADR).

Seguridad 


Es extremadamente importante incorporar seguridad para cualquier LPWAN. La seguridad del protocolo de red LoRaWAN se basa en la norma IEEE 802.15.4, ampliándose mediante la utilización una capa de seguridad para la red y otra capa de seguridad para la aplicación. La autenticidad del dispositivo final (nodo) en la red, es garantizada por la capa de seguridad de la red y para garantizar que el operador de la red no tenga acceso a los datos de la aplicación del usuario final, se emplea la capa de seguridad de aplicación; se utiliza el estándar de cifrado AES para cada dispositivo final LoRaWAN.

Ejemplo de Implementación 

La empresa Decentlab desarrolló un sistemas de monitorización personalizados en tiempo real para productores agrarios. El mismo tiene como objetivo investigar las relaciones entre la luz, la temperatura, la humedad, la lluvia, la calidad y el rendimiento para potenciar la agricultura sostenible (explotaciones agrícolas, plantaciones de árboles, bosques, entre otros). Asimismo, aporta capacidad de control de la humedad y temperatura del suelo a gestores de parques y jardines, ayudando a optimizar el uso de recursos hídricos en jardines y parques urbanos.

Esta solución de monitorización agrícola IoT LoRaWAN mediante registro inalámbrico de datos de Decentlab es compatible con todos los sensores utilizados en esta en la industria agraria y presenta un bajo consumo de energía que permite un despliegue rápido y fácil en áreas remotas sin cables. 


En esta siguiente fotografía se ve el producto final desarrollado, el cual debe cumplir con normas internacionales. En este caso por ser un dispositivo de exterior, debe responder a los grados de protección IP, como por ejemplo el IP67 que asegura la protección total frente al agua y polvo.

Verticales de mayor oportunidad para IoT


El primer campo de aplicación de esta tecnología es todo lo que se refiere a gerenciamiento de activos, camiones y flotas. También en la industria agropecuaria ya que el campo argentino necesita mantenerse cada vez más competitivo. 

En el área de la industria productiva de bienes y servicios, se debería realizar un gran trabajo para que las fábricas se integren y doten de una inteligencia común a todo el espacio de producción, con el fin de implementar esta tecnología. Por último, podemos hablar de oportunidades en el hogar y ciudades inteligentes, así como todo lo que se refiere a parking, medición ambiental y polución.

Comentarios finales


La tecnología LoRa, en conjunto con el protocolo LoRaWAN, satisface una importante necesidad de IoT para aplicaciones de largo alcance, baja potencia y baja tasa de datos. Este artículo ha examinado la capa física LoRa y las especificaciones LoRaWAN que hacen esto posible. No cabe duda que será una de las tecnologías de punta en el mercado y la clave para que esto se de, como opinión personal, será el aspecto de la seguridad tanto constructiva como informática.


Enlaces de interés


Autor: Julio Agustín Donadello, Estudiante de Ingeniería Electrónica.

martes, 6 de octubre de 2020

Una interesante alternativa para encaminarse a la autonomía energética


En este artículo les contaremos sobre cómo se puede sacar provecho de las energías renovables con la producción individual, a pequeña escala, de electricidad para el propio consumo y a su vez aportando a la sociedad con el concepto de smart grid. 
Mediante equipos específicos, algunos de ellos autoinstalables, se puede complementar con el balance neto en las instalaciones autónomas. Así, en el caso de un sistema conectado a red, el balance neto permite verter a la red eléctrica el exceso producido por un sistema de autoconsumo con la finalidad de poder hacer uso del sobrante en otro momento. De esta forma, la compañía eléctrica que proporcione electricidad cuando la demanda sea superior a la producción del sistema de autoconsumo, descontará de la factura el exceso producido por el sistema de autoconsumo. 
Por otro lado se está contribuyendo al saneamiento del medio ambiente con el uso de energías limpias, al camino a la eficiencia energética y a la autosuficiencia. 


Energía solar híbrida

Lo convencional para la instalación en el hogar es la combinación de energía solar y energía eólica (para ser efectiva la colocación de esta última, el viento en la zona debe superar los 3 m/s). Para su instalación se necesita básicamente un generador fotovoltaico (panel solar), un generador eólico, un inversor (teniendo en cuenta de que la energía producida por los generadores se obtiene en forma de señal continua), un transformador de media tensión/baja tensión (MT/BT) y, finalmente, la conexión a la red de electricidad.





Ventajas de la energía solar híbrida
  • Si bien las energías solar y eólica son fuentes de energía intermitentes y variables, en el artículo comentaremos las formas de implementarlas para alimentarnos cuando estos no puedan entregar energía. 
  • Tener al menos una parte de energía solar ayuda a reducir las emisiones y la dependencia de combustibles fósiles.
  • Permite reducir el consumo de la red eléctrica general. Así, no es necesario arriesgarse con una instalación 100% solar de autoconsumo.
  • Se puede optimizar el costo de la energía, accediendo a la fuente más barata según el momento.
  • La duración de los paneles ronda entre 25 y 30 años en promedio, mientras que la de los aerogeneradores ronda entre los 15 y 20 años.

Desventajas de la energía solar híbrida
  • La instalación es más compleja y costosa en comparación con una instalación de energía 100% solar.
  • Tienen un funcionamiento más complejo que los sistemas con una sola fuente de energía al tener que gestionar varias de esas fuentes según necesidades y momentos de aprovechamiento. 

Formas de implementarla

Algo importante a destacar es que existen tres métodos para aprovechar esta tecnología: grid-off, grid-on e híbridos. 

Grid-off: sistemas completamente aislados de la red eléctrica, al requerir la acumulación de energía, se utilizan bancos de baterías para el abastecimiento necesario. 
Su ventaja es la independencia energética, mientras que su desventaja es la costosa inversión en baterías y su mantenimiento. 

Grid-on: estos sistemas están conectados a la red y no tienen necesidad de baterías, ya que utiliza la red cuando no genera su propia energía. 
Su ventaja es que su instalación es mucho más económica que la anterior, su desventaja es que si el suministro central deja de funcionar, este no puede utilizar el suyo, debido a una imposición de sincronismo propio del sistema.

Híbridos: como podemos imaginar, este método implementa lo bueno de los dos métodos anteriores y busca eliminar las limitaciones, es la nueva tendencia.
De esta manera podemos contar con energía propia, independientemente del suministro exterior en caso de cortes. Pero no todo es bueno, ya que tiene una desventaja: requiere una inversión más costosa que las anteriores, debido a los inverters (inversores) que utilizan para adaptar los mismos. 


¿Que es una smart grid?

Son redes inteligentes que permiten descentralizar la distribución de la energía por parte de un solo proveedor, a varios “proveedores pequeños”.



El término smart grid se asocia a menudo con el concepto de medidores inteligentes, capaces de ofrecer una facturación detallada por franjas horarias, lo que permitiría a los consumidores no solamente elegir las mejores tarifas entre las diferentes empresas eléctricas, sino también discernir entre las diferentes horas de consumo, lo que a su vez permitiría un mejor uso de la red. 
Este sistema también permitiría mapear con más precisión el consumo, y anticipar mejor las necesidades futuras a nivel local. Incorpora la tecnología digital necesaria para que una comunicación fluida en ambas direcciones tenga lugar entre la instalación y el usuario. Es decir, este canal iría desde el proveedor de energía hasta los hogares, pero también desde los hogares hasta el proveedor. De esta manera, si la producción de energía en su hogar es mayor a la que consume, usted la vierte en la red eléctrica y obtiene un beneficio por parte del ente regulador de energía.


¿Qué beneficios tiene una smart grid?
  • Una transmisión más eficiente de la electricidad.
  • Un restablecimiento más rápido y eficaz tras una interrupción del servicio.
  • Reducción en los picos de demanda, bajando así también los precios.
  • Integración a gran escala de sistemas de energías renovables.

Lo que nos importa saber

Un hogar promedio consume entre 250 y 400kWh al mes. Con un panel solar de 330W suponiendo 5 horas de sol al día, podemos obtener un aproximado de 50kWh al mes. 
Un aerogenerador de 1000W, suponiendo un viento promedio de 4 m/s, podemos obtener un aproximado de 2.1kWh por día, al mes serían 63kWh. 
Para cubrir un consumo promedio, si bien se pueden adicionar ambos, es aconsejable adicionar los paneles solares necesarios en vez de aerogeneradores. Esto es teniendo en cuenta su fácil instalación y adaptabilidad del sistema de control de la energía. 
Como dato extra, un panel de 330W tiene como dimensiones 1.95m x 1m x 4cm y su peso es 28Kg. Mientras que el aerogenerador tiene un peso aproximado de 50Kg y sus palas miden 1m. Estos son datos aproximados y varían dependiendo del equipo elegido en el mercado.


Comentarios finales 

Es evidente que el uso de las energías renovables en el hogar nos pueden dar muchos beneficios tanto económicos como al medio ambiente.
También hay que reconocer que hoy en día, requiere una importante inversión para poder disfrutar de esos beneficios y sus amortizaciones son a mediano y largo plazo. Sería conveniente incorporar a las políticas nacionales un plan para poder darle una facilidad al usuario y que este se pueda aportar a esta nueva tendencia; ya que el beneficio no va a ser sólo individual, sino que adaptando correctamente este tipo de tecnología a una gran cantidad de usuarios, podríamos solventar el gran problema de la autonomía energética en nuestro país. 


Autor: Lic. Cristian Franco, Capitán del Ejército Argentino, Estudiante de Ingeniería Electrónica. 

martes, 29 de septiembre de 2020

Usos y control del espectro electromagnético (EEM) en nuestro país

¿Estamos usando el espectro electromagnético de manera eficiente en nuestro país? ¿Cómo se gestiona, asignan frecuencias y controlan?


Este post está orientado al personal afectado al área de telecomunicaciones y afines, tanto civiles como militares. Siempre se habla del uso y el empleo del espectro electromagnético, pero pocas veces tratamos sobre regulación y usos del mismo. Soy el Capitán Juan Andrés Morozovsky, perteneciente al arma de comunicaciones del Ejército Argentino. 

Para empezar, comenzaremos por definir quién es la autoridad que controla y regula el uso del EEM (Espectro electromagnético) en Argentina, y es el ENACOM (Ente nacional de comunicaciones), siendo la entidad gubernamental que asigna, dispone y controla las frecuencias en uso por civiles, militares y estaciones comerciales.

Definición del EEM según la ENACOM 

El Espectro Radioeléctrico es un recurso natural, de carácter LIMITADO, que constituye un bien de dominio público, sobre el cual el Estado ejerce su soberanía. Es asimismo un medio intangible que puede utilizarse para la prestación de diversos servicios de comunicaciones. 

Actualmente, la demanda para servicios inalámbricos como los sistemas de comunicaciones móviles, las redes de televisión digital terrestre o los diversos sistemas de acceso inalámbrico de banda ancha es elevada. Sin embargo, hay que tomar en cuenta que no todas las porciones – o bandas – del mismo son aptas para cualquier servicio o sistema sino que, por el contrario, determinadas zonas del espectro están especialmente indicadas para proporcionar servicios concretos. 

Tabla general de asignación de frecuencias

Gestiones y autorizaciones en la ENACOM:

Las designaciones, autorizaciones, y similares las efectúa un sistema digital llamado HERTZ (creado en el 2015). El sistema habilita la solicitud de autorizaciones a través de la página web de ENACOM, en conjunto con la plataforma TAD (trámites a distancia), lo que ofrece mayor transparencia al proceso y permite acceder de manera permanente e instantánea al estado de tramitación.

Pantalla de inicio dentro de la plataforma TAD (tramites a distancia)
del sistema Hertz de la ENACOM

Hertz centraliza información sobre las autorizaciones para el uso del espectro, asistiendo a los procesos y consultas relativas a: el estado de ocupación del espectro en un área o zona determinada, por banda/s de frecuencias y/o servicio/s; información necesaria para el control técnico de emisiones, para el proceso de planificación de frecuencias, para la facturación y cobro de cánones y tasas por uso del espectro, entre otras funcionalidades.

Sin embargo, nos preguntamos, ¿Cuál sería un buen método a utilizar por la ENACOM para conocer y controlar que se cumpla todo aquello que esta ordenado? Hace no mucho tiempo se desarrolló el concepto de “Radio cognitiva” que se basa en el sensado y explotación a modo estadístico del EEM. 

Para satisfacer la creciente demanda en comunicaciones inalámbricas, la ocupación del medio es cada vez más y más densa. Es por ello que la búsqueda de formas de acceder al medio, plantea soluciones cada vez más sofisticadas. 

En el año 2000, se propuso la Radio Cognitiva como una solución en donde cada dispositivo explora el medio radioeléctrico buscando posibles "ventanas" para operar. La utilización del espectro no es continua en cuanto a frecuencia, tiempo, espacio y potencia. Este concepto busca explotar los recursos ociosos mediante el monitoreo del espectro. 

Los sistemas de radio cognitiva son conformados por equipos de radiocomunicaciones capaces de medir el espectro y determinar, en qué momentos y bandas el mismo se encuentra disponible y en cuales está siendo utilizado. Estos sistemas pueden tomar decisiones basados en parámetros preestablecidos o programas pre-cargados que buscan optimizar el funcionamiento para aprovechar de la mejor manera posible el todo lo disponible, al tiempo que pueden aprender de los resultados obtenidos. 

En otras palabras, radio cognitiva habla de un censo estadístico del EEM, realizado de manera continua, sobre una banda muy grande de frecuencias para conocer de la manera más detallada posible, como se está utilizando el EEM, y como podemos mejorar ese empleo.


¿Pero por qué queremos sensar el espectro electromagnético? 

La respuesta si bien es sencilla, abarca una serie de cuestiones técnicas que no ahondaremos en este entrada, y solo nos abocaremos en el empleo de Radio Cognitiva. Al momento de transmitir, nos encontramos con el problema que el espectro es fuertemente utilizado, y por lo tanto tenemos que encontrar la manera de hacerlo sin interferir a otro emisor, o que otro emisor nos interfiera, y para ello, debemos hacer un sensado del espectro a modo estadístico para poder ocupar todos los recursos posibles del espectro. 

Si pensamos en el espacio físico que ocupa una antena (su superficie), en todo el mismo estará recibiendo señales provenientes del espectro, como a su vez, estará emitiendo en una determinada frecuencia, y en una determinada potencia todo el tiempo que se encuentre activa, por lo tanto debemos conocer todo lo que se encuentra a nuestro alrededor para minimizar al máximo las interferencias. 

Objetivo de Radio cognitiva 

Principalmente se busca obtener aquellas "ventanas" que tenemos en el espectro EM, ya sea en frecuencia, potencia y tiempo, es decir, buscar aquellos instantes, u oportunidades para poder efectuar transmisiones o recepciones de manera óptima. 

Grafico de visualización de los tres parámetros en estudio
(frecuencia, potencia, y tiempo)

En este gráfico podemos ver las tres entradas del gráfico estadístico en una determinada zona, como es el tiempo de transmisión, en que potencia, y en qué frecuencia se realizan las emisiones, buscando con ello, encontrar los huecos de señal a utilizar. 

Equipamiento utilizado para las mediciones

Para este tipo de mediciones utilizamos el SDR (software defined radio), debido a que nos brinda una gran facilidad de adaptarlo a las mediciones que quiero realizar solo cambiando la codificación del mismo. En conjunto con eso, debemos utilizar también antenas de banda ancha, ya que si bien el SDR nos da la posibilidad de adaptarnos a los cambios en las mediciones, debemos contar con una antena que acompañe a esos cambios. Al referirnos a antenas de banda ancha, queremos decir una antena que nos permita cubrir un ancho de banda lo más parecido al equipo de recepción que tenemos, para evitar con ello, el transporte o la instalación de más equipamiento. 

Actividades previas a la medición:

Al momento de hacer las mediciones, se establece un umbral, el cual nos va a determinar si lo que medimos es ruido, o es señal. Esto nos arroja un resultado binario en el cual, medimos 1 cuando lo recibido supera el umbral, y un 0 cuando no lo supere, con lo que asumimos que estamos recibiendo ruido. Puede ocurrir que en esa frecuencia, o instante de tiempo, haya otro corresponsal emitiendo, pero que, al medir una señal tan baja, lo podemos considerar ruido. 

¿Cómo visualizamos las mediciones obtenidas?

Para visualizar, lo que se utiliza es un patrón de recurrencia, el cual nos da un gráfico en el cual, se compara instante a instante, la señal recibida con una señal de patrón.


Grafico de patrón de recurrencia
Izquierda -> Señal de entrada vs señal patrón
Derecha -> Puntos de coincidencia


Los diagramas de recurrencia fueron introducidos para visualizar la repetición en la evolución del espacio de estados. La repetición o recurrencia de un estado es su aparición en dos instantes diferentes Ti, Tj, y es representada por un punto en el diagrama. Por supuesto, una recurrencia exacta solo es posible en sistemas periódicos continuos, en cualquier otro caso solo es posible detectar recurrencias aproximadas a un error.  

Podemos observar cómo se compara una señal con otra, logrando con ello poder visualizar los momentos que coinciden. En las líneas diagonales, lo que podemos observar es que por un cierto tiempo, la coincidencia es plena con la señal de patrón, y el mismo se está replicando. Este diagrama se utiliza para comparar señales de patrón con las señales recibidas, buscando con ello conocer los tipos de modulación, y los momentos que se producen. 

Hoy en día, si bien el método no está muy difundido, las nuevas redes 5G son las que más lo utilizan, ya que buscan el máximo aprovechamiento del espectro electromagnético. 

¿Ahora, qué pasaría si nos centramos en lo que respecta al uso militar de Radio cognitiva?


Para empezar, deberíamos establecer los dos momentos de interés, es decir, si lo que deseamos es utilizarlo para el momento de un conflicto o para el momento de operaciones internas dentro del territorio ya que eso nos implicaría grandes diferencias a la hora de comunicarnos. 
  • Operaciones en un conflicto bélico: podemos asumir que no conocemos con anterioridad el lugar exacto en el que se van a realizar, y por lo tanto, es probable que no se disponga de datos estadísticos del uso del espectro en esa zona determinada, el concepto podría ir aplicando “sobre la marcha” durante el desarrollo del conflicto, aunque ello puede complicar en gran medida las propias operaciones por posibles interferencias con bandas ya asignadas.
  • Operaciones internas: Un ejemplo es el “Escudo Norte”[1], en el cual tenemos como ventaja contar con el apoyo del ENACOM que nos asignará las frecuencias correspondientes para el trabajo en el propio territorio. Sin embargo, como ejército, podemos realizar nosotros mismos el análisis del espectro para obtener con ello, la información necesaria para contar con canales secundarios en caso de ser sumamente necesario, y que sobre todo, con su uso, no afectemos a otros usuarios en la misma gama de frecuencias.

Conclusiones 

No podemos escapar a que con el avance de la tecnología en comunicaciones, y sin olvidar que el espectro es limitado, las necesidades de control y asignación de bandas son cada vez mayores, como a su vez, la necesidad de monitorearlo para verificar su correcta utilización. 

La radio cognitiva emerge como una novedosa tecnología de las comunicaciones inalámbricas con el potencial de cambiar la forma ineficiente en que el espectro radioeléctrico es utilizado actualmente. 

Las técnicas de acceso dinámico al espectro constituyen un elemento clave en la implementación de la tecnología radio cognitiva y serán las que utilicen capacidades de auto-configuración para adaptarse dinámicamente a la demanda. Las nuevas aplicaciones de software en los protocolos de radiocomunicación prometen convertir las redes móviles en algo mucho más útil.
  

Referencias

[1] El operativo Escudo Norte fue un plan del gobierno argentino para combatir el narcotráfico, la trata de personas y el contrabando en el norte de Argentina.​ Con el propósito de controlar los espacios aéreos, terrestres y fluviales de las provincias del norte argentino, las fuerzas de seguridad y armadas desplegaban sus aviones, helicópteros y radares. Fue creado en el año 2011.

martes, 22 de septiembre de 2020

Visual Search (PyAr)

Motivación y orientación

Esta entrada está orientada a un público general y busca dar una visión global sobre posibles aplicaciones de machine learning. Traté de que sea entendible para cualquiera (es decir, sin importar que haya tenido contacto previo con la temática) pero al mismo tiempo que no sea una lectura engorrosa para los que ya sepan del tema (que seguramente sepan más de lo que sé yo).

Las palabras que están subrayadas
asítooltip
tienen una pequeña descripción asociada que se muestra al posicionar el mouse encima, y son de utilidad sobre todo para los que no están empapados en la jerga de los programadores/
data scientistscientíficos de datos
/
IT guyspersonal de IT (tecnología de información)
.

Python es un lenguaje de programación que ha sabido mantener durante la última década una relevancia altísima, colocándolo en el segundo puesto del ranking de lenguajes con mayor cantidad de
pull requestscontribuciones de código
en
GitHubplataforma de desarrollo comunitario de software
(quedando en ese lugar sólo por detrás del omnipresente JavaScript), lo cual demuestra la versatilidad y utilidad del mismo en cualquier desarrollo Web, sea de
front-endtodo lo de una página Web con lo que el usuario interactúa
o de
back-endcapa de acceso a datos
.

Quien escribe admite ser desarrollador (muy) novato de Python. Sin embargo, incluso al sólo rozar la espuma sobre la superficie fluida que es Python, es más que evidente la fuerte presencia de
librariescolección de rutinas preprogramadas
y
frameworksestructuras abstractas sobre las que se da fundamento a los desarrollos de software
de este lenguaje a lo largo y ancho de todos los temas que abarca
DataScienceciencia de datos
. Mi apreciación es que este es justamente el motivo principal por el que los integrantes de la comunidad de Python tienen tanto amor por este lenguaje.

Al igual que el resto de las entradas que estarán subiéndose a este blog durante las siguientes semanas, esta entrada se está haciendo en el contexto de una crisis pandémica global prolongada desde principios de año. Una de las consecuencias que tiene estar en este marco temporal radica en la suspensión de cualquier tipo de actividad que implique el contacto estrecho entre personas - o bien, la migración a plataformas digitales donde se pueda hacer un intercambio de conocimiento sin que existan riesgos de bioseguridad.

Por este motivo, hace poco el comité organizador de PyCon Latam directamente decidió suspender la convención de este año, y anunció que la siguiente se hará recién el 29 de agosto de 2021. Pero por suerte los
developersdesarrolladores
de Python no nos quedamos con las manos vacías: el día 19 de agosto de 2020 PyAr (Python Argentina) organizó un Meetup (virtual, obviamente); y también organizará la PyConAr entre el 16 y 27 de noviembre de este año. (Muchas gracias a Sofía por aclararme la confusión que se me había generado entre estos nombres!)

Lo que sigue son mis impresiones de la primera de un ciclo de tres exposiciones que tomaron lugar en ese Meetup, sobre un proyecto llamado 
Visual Searchbúsqueda visual
 presentado por Sofía Denner. Sofía es programadora en MercadoLibre, desarrolla en Python y se dedica a la parte técnica de
machine learningaprendizaje de máquinas
. Esta charla se encuentra grabada y subida al canal de YouTube de PyAr, y puede verse en el siguiente link.

Contexto y premisa del proyecto

Visual Search es un proyecto que busca resolver el problema de encontrar algo que uno quiere comprar, pero sin saber ponerlo en palabras: muchas veces no es posible saber exactamente con qué palabras un vendedor describe cierto producto, y resultaría mucho más fácil poder tomar una fotografía de ese producto, y basar la búsqueda en esa foto.

En sí, Visual Search surgió dentro de algo llamado Nugget!, el cual es un espacio de aprendizaje orientado a personal de IT donde se les permite volcar conocimientos adquiridos en otros cursos y así poder crear algo más bien práctico. Es un lugar de encuentro con otros data scientists, que tienen mucha más experiencia en temas de machine learning y quieren ayudarlos.

El proyecto fue llevado a cabo por únicamente 3 personas: Sofía Denner, Francisco Yackel y Faustino Gagneten.

Esto implica que el proyecto no es productivo y que no está en los objetivos de MercadoLibre pasar este proyecto a la etapa de producción en el futuro cercano; y además que tuvo limitaciones de tiempo, debido a que no es la actividad principal que ninguno de ellos realiza en MercadoLibre.

Intuición del proyecto

Casi siempre que se busque resolver una problemática implementando machine learning, lo que se busca implementar tras bambalinas es una red neuronal (o varias). Una red neuronal es, en breve, una fórmula matemática muy grande que se representa gráficamente como un conjunto de varios nodos y flechitas, a la cual ingresan varias
inputsentradas
y de la cual salen varias
outputssalidas
. Cada nodo o neurona toma valores numéricos de una o más entradas, las procesa y se las pasa a una o varias más neuronas. De esta forma, se pueden agrupar las neuronas en varias capas, de la cual lo único que podemos ver desde "afuera" es la capa de outputs.

Ejemplo de una red neuronal bicapa. Fuente

Con el objetivo de convertir la información de la imagen en números que puedan ser las inputs de la red neuronal, comúnmente se obtienen 3 valores (RGB) para cada píxel de la imagen. A medida que la información de estas entradas va atravesando las sucesivas capas de la red, cada neurona calcula números que intentan interpretar información sobre los colores, texturas, formas, contornos, etc. de la imagen. A la salida de la red neuronal normalmente se obtiene una clasificación, por ejemplo, la probabilidad de que en la imagen haya un pájaro, una puesta de sol, un perro, un gato, etc.

En el proyecto se utilizaron redes neuronales que ya estaban entrenadas con muchos millones de imágenes que ya estaban subidas a Internet, las cuales son bastante precisas en su tarea de detectar qué hay en una imagen.

El otro modelo que se utiliza es el algoritmo KNN (
K-nearest-neighboursK vecinos más cercanos
). En éste, se representa un
datasetconjunto de datos
n-dimensional de distintos conjuntos de elementos; y al incorporarse un nuevo elemento, se evalúa la distancia de los K vecinos más cercanos con el objetivo de asumir a qué conjunto pertenece ese nuevo elemento.

Visualización del algoritmo KNN. Fuente

Este algoritmo se utiliza en el proyecto no para clasificar, sino para poder encontrar imágenes "cercanas" en relación a las matrices RGB que presenten en relación a otras que existan en el dataset.

Implementación

Las redes neuronales que se probaron en el proyecto fueron VGG16 y mobilenet.

El vector que representa cada imagen en VGG16 es de 4096 dimensiones, y en mobilenet, de 1024 dimensiones. Este dato no es menor, ya que mientras más dimensiones tenga cada vector, el costo computacional del algoritmo se vuelve mucho mayor.

En este sentido, mobilenet es mucho más eficiente que VGG16, por lo cual se optó por la primera.

Para la implementación del algoritmo KNN se hicieron pruebas con las librerías nmslib y pysparnn, y finalmente se optó por la primera.

Limitaciones

El proyecto es altamente ambicioso debido a que el dataset se compone de muchos millones de imágenes. Para ejemplificar, Sofía menciona que sólo en el
websitesitio Web
de Argentina hay 60 millones de publicaciones, cada una con entre 1 y 10 fotos. Por este motivo, y a pesar de que la capacidad de cómputo de MercadoLibre es bastante grande, se volvió muy necesario optimizar todo para que sea factible.

Sólo se utilizó un
subsetsubconjunto
de imágenes y no todo el sitio (en particular, la categoría de
fashionmoda
). Además, soló se trabajó con la primera foto de cada publicación, que usualmente es la más descriptiva.

También se aplicó un PCA para reducir el tamaño dimensional del dataset. Luego de aplicarlo, se logró mantener un 85% de la varianza (representativa de la distancia entre cada imagen dentro del dataset), pero se redujo de 1024 dimensiones a sólo 436. 

Visualización de la acción de una PCA. Fuente


El dataset utilizado finalmente fue de ~300 mil imágenes de la categoría fashion.



Comentarios finales

Elegí como mi primera entrada al blog escribir sobre este proyecto y charla por varios motivos. 

Personalmente siempre me pareció fascinante la idea del machine learning (y obviamente no soy el primero ni el último), que es un concepto que parece haber pasado de un plano de ciencia ficción a la realidad con una increíble velocidad (dos amigos míos me matarían si no aprovechara esta oportunidad para mencionar las obras del genial Isaac Asimov).

Esta charla fue excelente en lograr hacer entender las ideas principales de machine learning a oyentes como yo, que no tenemos realizados estudios formales sobre ciencias de la computación (es decir, los que formamos parte del resto de los mortales) pero sin sacrificar datos técnicos que me parecieron vitales para conectar estas ideas. 

Quizás esto sea justamente por la naturaleza de los integrantes del proyecto - en el primer minuto de charla Sofía se presentó a si misma como desarrolladora de Python; no es data scientist, y por eso tiene una habilidad nata en comunicar estos conceptos de forma clara y concisa. Espero haber podido aportar yo también un granito de arena en esta tarea. Si leyeron hasta acá, ¡muchas gracias!

(Queremos agradecer nuevamente a Sofía tanto por la charla, por dejarnos compartir esta nota y por darnos una atenta devolución, sos lo más! 😊)

Autor: Franco Abosso

lunes, 9 de diciembre de 2019

Entrevista: " Un charco de conocimiento sobre Energias Renovables"

La siguiente es una entrevista realizada al Ingeniero Aeronáutico Aníbal Vettorel, actualmente investigador y jefe de proyectos de CITEDEF, y profesor de Aerodinámica en la Facultad de ingeniería del Ejército. 

Aprovechamos su experiencia en energías renovables para realizar esta entrevista y aclarar algunas cuestiones básicas de la materia en cuestión.

Para empezar ,cual es el principal desafío de las energías renovables?

Las energías renovables, buscan reemplazar un combustible que resulta tan eficiente que no alcanza con una sola alternativa para suplir las necesidades que tenemos.  En cuanto a eficiencia no hay como los combustibles fósiles. Es por eso que por ejemplo se busca complementar con distintas alternativas renovables. La energía solar funciona solo de dia y de noche no funciona, mientras que la eólica funciona solamente cuando hay vientos, y casualmente por las noches no suele haber grandes tormentas.Como se daran cuenta, ambas funcionan para las mismas franjas horarias, por lo tanto no son complementarias.

Otro de los desafíos está en resolver su cuello de botella. Estos sistemas tienen un limitante con  las baterías, las baterías clásicas no funcionan en condiciones extremas, el frío le baja los ciclos de carga a la batería y termina siendo el limitante de la instalación.

¿Qué nos puedes decir respectos  los sistemas de eje vertical y de eje horizontal?

Lo que te puedo decir es que hay asociaciones ecológicas que aceptan el de eje vertical, pero no el horizontal debido a que el pájaro no lo ve. Eso ha llevado  a abrir un nuevo capítulo respecto a la regulación. Para simplificar un poco, en lugares que hay viento fuerte, predomina el de eje vertical. Estos desarrollos de eje vertical, son los que desarrollamos en su momento en la Antártida.

Las trabas de los de eje horizontal son: el ruido y vibraciones, y el tema ecológico con los pájaros.
En Brasil, por ejemplo, hay campos de 100 aerogeneradores, lo  que implicaría tener en cuenta el impacto en las aves. 

El eje vertical es mejor con gran variabilidad de vientos, esto se debe a que cuando tenemos vientos de aprox 100 km/h, el viento envuelve a la estructura y termina protegiendo al viento. En eje horizontal, la punta del aerogenerador a esas velocidad rompe la velocidad del sonida y se generan grandes ruidos.

Se podría decir que el flujo natural de los vientos se modifica debido a los aerogeneradores. Si es así. ¿Cómo impacta en el medio ambiente?

 Preferiría no hacer ninguna afirmación ya que no estoy al tanto de los últimos estudios al respecto.  Sólo puedo decirte que afectan a las aves.

Contanos un poco del proyecto del generador en la antártida

La idea original era realizar un proyecto completo e interdisciplinario y desarrollar la parte mecanica, electrica, electronica, y la parte de almacenamiento de energía. Incursionando en todas las etapas para comprender la tecnología empleada. De esta forma hicimos generadores de imanes permanentes propios, entendiendo sus limitaciones.

Con materiales robustos soportar condiciones climáticas de la antártida, lubricantes que  no se congelen, y estructuras que soportan fuertes vientos y la arenilla.

Hay que tener en cuenta que allá los vientos tienen mucha potencia y son discontinuos. Hay días de extrema calma y días de viento de 200km/h por lo tanto se necesita una electrónica de control para poder frenar esa fuerza. La energía mecánica que tiene el viento es tan grande que la energía electromotriz no logra frenarlo. Por lo que se generan artefactos complejos. Para poder frenar esos vientos, el sistema debe contar con frenos mecánicos y dispositivos de prevención para estas condiciones extremas. 

¿Cuál es el problema que enfrentan las energías renovables respecto a su implementación?

Es el almacenamiento de la energía.  Te doy un simple ejemplo: un bidón de combustible es, en definitiva, una fuente de energía, una batería. Por otro lado ¿cómo almacenar la energía térmica? Entonces, nuestro gran cuello de botella, son las baterías: cómo almacenar la energía luego de producirla, lo que evidentemente es un costo.

¿Qué podrías decirnos de generación de Energía vibratoria?

Es un desarrollo muy interesante. Por ejemplo cuando un imán pasa a través de una bobina, se genera una corriente eléctrica.  A partir de esto podemos generar una Fuerza electromotriz. Básicamente son generadores eléctricos lineales en lugar de rotatorios. Lo que puedo decirte es que aún no ha aparecido en el mercado.  Es todo lo que puedo decirte hasta el momento.

La energía eólica se mueve en un medio gaseoso como el aire. Ahora se está adaptando al agua. Entonces hay turbinas horizontales y verticales que funcionan con las corrientes marinas, no con las mareas, con la circulación de fluidos. Esto está surgiendo en países como Inglaterra.  Para que te des una idea, imagínate el Río Paraná con una velocidad  más o menos constante durante todo el año. Podría implementarse, pero traería aparejados algunos temas como el filtrado del agua. La problemática sería de implementación.  Lo que sería el cálculo hidrodinámico sería aplicable basado en el cálculo aerodinámico. Lo único que cambiaría sería la densidad del flujo.

¿Cómo diferenciaría la implementación práctica de un sistema solar de uno eólico?

Imaginate un pico de radiación al mediodía, no va a generar una variación  del sistema como una sobrecarga. Pero imagínate una variación de un viento de  50 a 150 Km/hora que dura 60 segundos.Ya necesitas un sistema de control que me proteja las baterías y hay que ver que el consumo no sea mayor que el que se genera. Lo resumimos con una frase: QUE EL COLLAR NO SEA MÁS CARO QUE EL PERRO.

¿Respecto a la eficiencia, que nos puede decir?

En función de mi experiencia los que hablan de eficiencia jamás agarraron un destornillador. Para mí, son teóricos  de los antiguos astronautas. Te hablan de eficiencia de un recurso que vos no lo pagás y lo comparas con un sistema súper desarrollado que lleva más de 100 años como la red eléctrica. 

Imaginate hablar de eficiencia del sistema cuando estás en medio de la nada, sin señal de celular, y una gotita de energía significa hacerte la vida confortable o padecerla.

 A mí por ejemplo me encanta hacer campamento, si la energía  no está, cualquier gota de energía vale mucho más que nada. Imagínate vivir en SAN LUIS donde no llega la electricidad.  Vos poniendo un grupo electrógeno gastando 10 litros por día, es más barato que la nada. Entonces hablar de eficiencia no tiene sentido. Ahora cuando vos comparas el grupo electrógeno en medio del campo con un toma corrientes en Capital Federal, vas a decir:”Uh! qué caro!”.  Entonces te repito, los que hablan de eficiencia, nunca agarraron un destornillador!

¿Las energías renovables son rentables?

Mirá, estas tecnologías siempre se las trata de enmascarar como oportunidad de negocio. Y no lo son. Mejora la calidad de vida en ciertas situaciones. Fijate vos  en la Antártida, todavía siguen utilizando grupos electrógenos con combustible que es carísimo, entonces no podemos hablar de costo.

Con respecto a los estudios sobre el terreno para hacer un parque eólico, que nos podes comentar?
Por lo general tiene más que ver con un tema económico o político que técnico. Ya que quien realiza la inversión, quiere asegurarse de recuperarla lo antes posible. Entonces surgen estos negocios y análisis sobre qué necesitan 2 años de evaluación del terreno. Hoy en día con el nivel de desarrollo, estos tiempos de investigación son mucho menores. 

Hay una frase que dice que los sistemas son tan buenos como las personas que los operan.  ¿Cómo es la capacitación de los técnicos en nuestro país?

En lo que es la industria de paneles solares, el que tomó bien la posta es el INTI. Que vincula las cosas. Ellos dan cursos a instaladores. También los sindicatos están haciendo cursos. El rubro de paneles solares ha llegado a una maduración de la industria. Cuando llegamos a esto, podemos decir que es un producto terminado.Todo está estandarizado, y vos ya empezás a armar  el sistema como un TETRIS. Es todo modular.

Cuales son las políticas en nuestro país respecto a este tema?

No hay ni financiamiento  ni incentivos para invertir en las energías renovables. Estos temas no dejan de ser cuestiones políticas, analicemos la siguiente situación. En el gobierno anterior era tan barata la energía que no se justifica invertir en alternativas. Hoy en día es tan cara que no llegó a recuperar la inversión. La falta de coherencia entre las dos políticas termina perjudicando al sector.

Muchachos les dejo una pregunta a ustedes, que es preferible, un mar de conocimientos de 2 centímetros o bien un charco pero con metros y metros de profundidad? Piensenlo, espero que les haya servido. Esa es mi experiencia.