Artículos

Entrevista a Jorge Kamlofsky: Escribiendo el siguiente capítulo de la criptografía

Esconder algo para que no lo lea otro. Proteger la confidencialidad de un mensaje a la hora de comunicarse ha sido una necesidad a lo largo de la historia, tanto en civilizaciones antiguas como en nuestros días. Quien controla la información sobre algo, posee poder. Mucho más si esa información llegara a caer en manos indebidas. Desde la scitala espartana, en la que el mensaje se descubría enrollando una cinta de cuero en una vara, o desde Julio César, que desplazaba la sustitución de un carácter por otro mediante un número fijo, o pasando por los más de 12 mil matemáticos que en las afueras de Londres lograron romper en la Segunda Guerra el código Enigma alemán, la criptografía aplicada al cifrado de un mensaje representó un factor de control y poder sobre el flujo de información circulante acerca de algo. En todos estos mensajes hay algo en común: alguien que quiere mostrar algo, sin que otra persona se entere. Es hoy la criptografía la ciencia detrás de todos nuestros dispositivos de intercambio de información digital, presente pero invisible, un tatuaje subcutáneo dentro de cada correo electrónico, cada audio de WhatsApp, cada pago por homebanking, y una herramienta fundamental para mantener seguridad y confidencialidad en telecomunicaciones y sistemas informáticos como https y la firma electrónica.

Por más rebuscado suene al oído medio, y lo distante que pudiera aparecer los menesteres de esta ciencia a las investigaciones científicas en nuestro país, se puede afirmar que el estudio en matemática criptográfica y la investigación en algoritmos y mecanismos avanzados de protección de datos se encuentra presente, en vigencia con muy altos estándares, y en búsqueda de escalar posiciones en la carrera científica internacional. En nuestro país, uno de los mayores referentes sobre criptografía es Jorge Kamlofsky. Licenciado en Matemática de la Universidad Abierta Interamericana (UAI) con una Especialización en Criptografía y Seguridad Teleinformática de la Escuela Superior Técnica (Facultad de Ingeniería del Ejército Argentino), es profesor de Matemática Discreta y Física en la UAI y Algebra y Geometría Analítica en la Universidad Tecnológica Nacional (UTN). También es investigador en el CAETI (Centro de Altos Estudios en Tecnología Informática): dirige un proyecto denominado “Ciberdefensa en Redes Industriales”, en el que se pretende hallar mecanismos avanzados de protección de estas redes. En 2014 escribió un libro basado en su tesis de Especialización denominado “El Quiebre de la Seguridad de Mifare Classic” (Editorial Académica Española), referido a vulnerabilidades halladas en el chip de estas tarjetas, aquí usadas en el sistema SUBE. En 2017 Junto a su tutor, el Dr. Pedro Hecht y a la UAI patentó un algoritmo criptográfico poscuántico: HK17 el cual fue presentado en el proceso de estandarización de la nueva criptografía de la NIST (Oficina Nacional de Estándares y Tecnologías), en EEUU.

El Investigador brindó el pasado lunes la segunda edición de la charla abierta y gratuita “Taller de Criptografía”, en la Facultad de Ingeniería de la Universidad Fasta, dentro del marco de intercambio cooperacional entre la Universidad Abierta Interamericana (UAI), el Laboratorio de Investigación y Desarrollo en Informática Forense (InFo-Lab), y la FI-UFASTA. En la exposición, el investigador y docente disertó acerca de nociones como artimética modular, las composiciones de los algoritmos RSA, DH y cifradores de flujo, y algunas herramientas criptográficas desarrolladas con Python.

Hoy la criptografía es nombrada en muchos lugares comunes, como mensajes de WhatsApp y operaciones de comercio electrónico, ¿Cuan seguros se encuentran estos intercambios?

Las implementaciones mencionadas utilizan sistemas de encripción simétricos y asimétricos considerados robustos, en combinación, con longitudes de clave que los hacen seguros. Por ejemplo: combinando AES256 como cifrador simétrico con RSA con 2048 bits de longitud de clave se puede decir que es un esquema seguro. Sin embargo, si tenemos en cuenta que según la NIST, no se está muy lejos de la implementación del algoritmo de Shor en computadora cuántica, estos esquemas no serían ya seguros. Pero nada dice que en los próximos 5 años esto tenga un impacto masivo. Esa preocupación la dejamos para la seguridad de los grandes secretos.

A diario se manejan incontables operaciones online como mensajes, búsquedas, descargas, transacciones…
¿Existe hoy tecnología que permita desencriptar en tiempo real el tráfico en internet?

Aunque se suponga que el tráfico en Internet viaja encriptado, esto no es cierto. Usando el protocolo http, en general la información viaja en claro, y cualquiera puede perpetrar un ataque de “hombre-en-el-medio” a cualquier transmisión que usa este protocolo, y conocer lo que se transmite, sin ninguna necesidad de desencriptar. La forma actual de transmisión segura es mediante el protocolo https en lugar de http. Para el usuario básico, esto es equivalente a usar “el candadito”: si aparece, el sitio está usando https, y nuestra comunicación con ese sitio puede considerarse segura. Desde enero de 2017 los mayores sitios de Internet impulsan una iniciativa de imponer https para todos los sitios. Hoy en Argentina, la proporción de los sitios que ya implementaron https es cercana al 10%.
Es interesante la iniciativa denominada “https everywhere” de la Electronic Frontier Foundation que propone el uso por defecto de https en los navegadores Mozilla, Chrome y Opera. Se instala una extensión en los navegadores que solicita a todos los sitios al uso de https.

En los últimos años aparecieron, además de Bitcoin, diferentes criptomonedas. ¿Cuál es su opinión respecto a su utilización y potencial?

No estudié el tema en detalle. Las criptomonedas parecen ser una opción interesante de inversión, pero hay voces que declaran que no son más que burbujas, o esquemas piramidales sofisticados que en algún momento caerán, dejando a millones de inversores sin nada. La realidad es que su uso como medio de pago se está expandiendo en todo el mundo, como una consecuencia más de la globalización tecnológica, quitando a los estados del monopolio del manejo transaccional. Quizás también pueda vérselas como un escape de la voracidad de los estados en la recaudación desmedida de impuestos y la dificultad para guardar excedentes en forma segura.
Personalmente, más allá de las criptomonedas, me interesa el sustento tecnológico específicamente del Bitcoin: el blockchain. Es una cadena de bloques de datos interrelacionados, y encriptados seguramente. Están apareciendo proyectos muy interesantes usando esta tecnología, no solo aplicados a la generación de criptomonedas, sino para asegurar la integridad de los datos, entre ellos, los datos personales. Teniendo en cuenta las últimas “filtraciones” masivas de datos personales de grandes empresas tecnológicas (Facebook, Yahoo!, entre otros), y teniendo en cuenta que estos datos son hoy un gran activo, esto parece promisorio.

Cada vez se habla más acerca de la computadora cuántica y el estudio de los Qubits. ¿Cuál cree usted que es el papel de la criptografía en la Era de la computación cuántica?

Sin duda alguna, todos los esquemas criptográficos actuales quedarán obsoletos en poco tiempo, y serán reemplazados por esquemas criptográficos poscuanticos. Es nuestra intención entender el funcionamiento de las computadoras cuánticas, ya que se trata de un nuevo paradigma de computación. Para ello, con la Dra. Samira Abdel Masih, abrimos hace unos meses un proyecto de investigación dedicado a implementar algoritmos en computadoras cuánticas. Del proyecto participa el Dr. Pedro Hecht y el Mg. (Lic. en Física) Enrique Congolani. Este proyecto complementará nuestros trabajos en criptografía poscuántica. La computadora cuántica producirá cambios en la tecnología y en la sociedad comparables como los que provocan y provocarán Big Data y IOT. Son cambios tecnológicos paradigmáticos.

Acerca de su trabajo sobre el quiebre de la seguridad de Mifare Classic, aplicado en las tarjetas SUBE, ¿qué implicancias tuvo realizar ese proyecto?

Conocí a la tecnología Mifare Classic hace unos 20 años, cuando recién surgió: trabajé en una empresa que fabricaba estas tarjetas. En pocos años, Mifare Classis se implementó en sistemas de transporte masivo en todo el mundo. En momentos de iniciar mi Tesis de Especialización en Criptografía y Seguridad Teleinformática, mientras se iniciaba la implementación del sistema SUBE, en Europa ya se habían logrado al menos dos ataques a esta tecnología, debilitándola. Mi Tesis trató de contar el fundamento de estos ataques y dar un detalle de cómo implementarlos: con un lector económico y una notebook fue posible cambiar la información de las tarjetas, en un promedio de aproximadamente 30 minutos. Un trabajo posterior presenta una clasificación de los sistemas en función de cómo se asegura cada uno de los 32 sectores de memoria, para en función de ello, perpetrar diferentes ataques. Ello se presentó en el VII Congreso Iberoamericano de Seguridad Informática (Panamá, 2013) y se agregó a mi libro.
Particularmente respecto a SUBE, conozco que al sistema le han agregado diversas medidas de seguridad. A eso se le suma que los repositorios públicos desde donde se podían descargar los diferentes elementos de software necesarios para lograr los ataques, están cerrados. Ello hace que hoy, en promedio, para lograr las claves de todos los sectores de memoria de una tarjeta SUBE, se tarda aproximadamente 5 horas, lo cual es muy poco atractivo, pero no imposible. En cualquier caso, el problema es que el criptosistema dentro del chip es muy débil. No pasará mucho tiempo para que aparezca un ataque que finalmente termine con esta tecnología, que no brinda la seguridad mínima que se requiere en estos días.
Personalmente creo que los investigadores en ciber-seguridad tenemos una gran importancia no reconocida por la sociedad actual, que tanto se relaciona con la tecnología, y este es solo uno de los ejemplos: por un lado somos vistos como delincuentes al hackear equipos y sistemas en búsqueda de vulnerabilidades, pero por otro lado, tenemos una función clave frente a la imposición de productos de pseudo-seguridad por parte de grandes empresas, estados y organizaciones. Ponemos en evidencia que muchos productos no son tan seguro como se dice y nos lo hacen pagar como tales. Así, aportamos para lograr productos y sistemas más seguros, antes que sean vulnerados por ciber-delincuentes, con consecuencias para los usuarios, que muchas veces no tienen cómo defenderse.

Junto a Pedro Hecht presentaron HK17 ante el NIST ¿Qué alcance tiene el proyecto? ¿Qué avances ha tenido?

Nuestra propuesta fue la única propuesta de todo Latinoamérica: consiste en un sistema de intercambio de claves Diffie-Hellman usando Cuaterniones y Octoniones (números hipercomplejos). En especial, la versión de octoniones, logra un intercambio de claves sólo con operaciones elementales: suma producto, con números pequeños. Esto puede ser de gran utilidad para brindar seguridad criptográfica poscuántica para dispositivos de muy pequeño porte. Y esto no es menor, pensando en tecnologías IOT (Internet Of Things – Internet de las cosas) o en tecnologías con pequeño poder de cómputo. Por otro lado, la versión que utiliza cuaterniones, logra intercambios de clave muy rápido. Si HK17 es elegido, la misma NIST sugerirá el uso de HK17 (junto con otros) para la próxima criptografía en todo el mundo, así como hoy se usan RSA, AES, etc. Luego de la primer ronda, Daniel Bernstein (junto con Tania Langue), el referente más importante de la criptografía poscuántica mundial, nos presentó un ataque muy bueno, encontrando una falla algebraica del conjunto numérico elegido, obligandonos a bajar la propuesta. Nos quedó una sensación amarga por tener que bajar el trabajo, pero… ¡Nos bajó Daniel Bernstein!. Por otro lado, en el foro de NIST, Ludovic Perret de la Universidad Curie de Francia opina que un sistema tan simple como el nuestro podría encontrar una solución fácilmente. El Dr. Hecht encontró opciones que nos permiten presentar variantes inmunes a los ataques presentados. Por otro lado, hay un alumno de la Licenciatura en Matemática de la UAI estudiando el ataque de Bernstein. Por mi lado, tengo una hipótesis (algebraica) que podría inmunizar al HK17 del ataque de Bernstein, la cual será analizada durante este verano.

Ud. dirige en el Centro de Altos Estudios en Tecnología Informática (CAETI) de la UAI un proyecto de investigación denominado “Ciberdefensa en Redes Industriales”. ¿A dónde se pretende llegar?

Hace 20 años trabajé programando PLC: autómatas industriales. Allí, en el más bajo nivel, se programa la automatización de un proceso industrial. Por la robustez de estos dispositivos, los PLCs se usan además en: plantas nucleares, pozos petroleros, potabilizadoras de agua, es decir, en las infraestructuras críticas de las naciones. Oportunamente, me enseñaron que en los PLCs no entraban los virus. Sin embargo en 2011, se conoció el ataque a una planta de enriquecimiento de uranio de Iran por parte de la NSA mediante un malware llamado Stuxnet. Se instaló en un sistema industrial SCADA marca Siemens y dejó abierto un problema de escala mundial: las vulnerabilidades de las redes industriales a ciber-ataques. Esa fue la noticia que me llevó a estudiar Criptografía (en la Facultad de Ingeniería del Ejército Argentino), ya que contradecía mis aprendizajes.
En 2014 en la Facultad de Tecnología Informática me ofrecieron abrir un proyecto de investigación. Desde su apertura hasta hoy, el proyecto posee al menos una docena de publicaciones en congresos científicos nacionales e internacionales, una patente: HK17 (reserva de derechos de autor), 40 alumnos y 4 docentes colaboradores, la mayoría de la UAI, pero también hay alumnos de otras instituciones como la UNLP y del instituto de Forensia Itemed, este convenio con la Universidad Fasta, cursos y actividades de Extensión Universitaria varias. Además, por nuestras investigaciones participamos de los Talleres de Ciberseguridad que organiza el Ministerio de Seguridad.
El proyecto, cuyo desarrollo alimenta mi tesis doctoral, pretende brindar seguridad a las redes industriales mediante tres pilares: encripción de comunicaciones dentro de la red industrial, gestión de la seguridad de la información para disminuir la exposición a ataques, y desarrollo de herramientas de seguridad basadas en herramientas de inteligencia artificial para eliminar intrusos en tiempo de ejecución. Contiene además estudios de: hacking, estudios de malware, seguridad en redes industriales, entre otros. Dentro de la parte de Gestión, deseo incluir un apartado de Informática Forense, el cual puede ser otro nexo con el Infolab. Para 2019 pretendo abrir la colaboración activa de los alumnos, con la intención de hacer crecer exponencialmente los resultados de investigación: una idea muy ambiciosa, pero no imposible. En estos días estamos poniendo en funcionamiento Honeypots industriales: son simuladores para analisis de ataques a redes industriales. Ellos pretenden almacenar las acciones que los hackers realizan al atacar una red industrial, para con ello, desarrollar contramedidas.

¿Qué le genera participar de eventos de intercambio como la charla “Taller de Criptografía”?

Las charlas que los investigadores de la universidad Fasta hicieron (y continuarán haciendo) en la UAI relacionadas con Informática Forense son de gran importancia para el futuro Ingeniero en Sistemas que es el público al que se pretende dirigirlas. Sin embargo, las charlas también las abrimos a la comunidad académica en general. Es normal un desconocimiento casi total de esta disciplina, y estas charlas permiten dar a conocer su impacto y relación con la comunidad. Es de gran atracción que los investigadores comparten experiencias del InFo-Lab con el público.
Respecto de las charlad de Criptografía, mis aportes en la difusión de estos conceptos aparentemente tan oscuros pretenden transparentarlos. En mis charlas se trata de explicar los fundamentos matemáticos con ejemplos simples y se muestran implementaciones. Personalmente, estas charlas me permiten reforzar mis conocimientos, buscando implementaciones más sencillas y mejorar permanentemente el material. Por parte de las universidades intervinientes, ambas partes ganan con la difusión. Sin embargo, creo que el alcance de estos intercambios puede ser mucho mayor y se irá evidenciando con el tiempo, a medida que nos conozcamos mejor, y logremos complementarnos en algunos aspectos, como ser, la investigación.

Breve historia de la criptografía moderna

La criptografía matemática moderna puede decirse que comenzó tras la publicación del artículo de Claude Shannon: Communication Theory of Secrecy Systems, en 1949. Esta teoría está relacionada con las leyes matemáticas que rigen la transmisión y el procesamiento de la información y se ocupa de la representación de la misma. Años más tarde, la criptografía desapareció de la escena para quedarse dentro de las organizaciones gubernamentales dedicadas al espionaje y el contraespionaje. La NSA (Agencia de Seguridad Nacional de Estados Unidos) acaparó y bloqueó casi totalmente la publicación de cualquier avance en el campo de la criptografía desde principios de la década de 1950 hasta mediados de los 70. En 1975, IBM publica su sistema de encripción llamado DES (Data Encryption Standard) por invitación de la Oficina Nacional de Estándares (ahora NIST) en un esfuerzo por desarrollar sistemas de comunicación electrónica segura tanto para las empresas como para los bancos y otras organizaciones financieras. Fue a partir de la década del ´70 que se abrió el campo de la ciencia criptográfica, dando lugar a la aparición de publicaciones que desafiaban los estándares de los sistemas criptográficos mediante la matemática. Hacia 1976, Whitfield Diffie y Martin Hellman presentaron un artículo que cambió estructuralmente la forma de funcionamiento de los criptosistemas, en lo que se conoce como DHP. Este protocolo de establecimiento de claves entre dos partes sin contacto previo,se estable cuando una elige dos elementos privados y dos elementos públicos, los cuales lo entrega a la otra parte. Después de cálculos modulares y distribución e intercambio de tokens, ambas partes reciben la misma clave, haciendo su intercambio seguro, siendo este tipo de intercambio considerado simétrico.
Otro de los algoritmos populares dentro de la criptografía moderna se denomina RSA, publicado en 1978, que radica en la factorización de grandes números enteros pseudo-primos. Cada usuario posee dos claves, una pública y una privada. Cuando se quiere enviar un mensaje, el emisor busca la clave pública del receptor, y cifra su mensaje con esa clave. El mensaje cifrado llega al receptor, descifrándolo usando su clave privada. El principal uso de este sistema hoy en día es la firma digital.
En 1997, el antes mencionado NIST realizó un concurso para escoger un algoritmo cifrado capaz de proteger información sensible durante el siglo XXI, con las condiciones de ser de dominio público, simétrico (es decir: se inicia la encripción y la desencripción usando la misma clave) y entre 128 y 256 bits. De esto se desprendió el AES (Advanced Encryption Standard), que se utiliza a gran escala como estándar de cifrado, al ser rápido tanto en software como en hardware, fácil de implementar y de poca memoria, utilizando un sistema de cifrado por bloques y una red de sustitución-permutación.
Pero para el uso de algoritmos simétricos, por más robustos que resulten, se requiere que las partes intervinientes se pongan de acuerdo con qué clave usar. Para realizar el intercambio seguro de claves, se requiere de la criptografía asimétrica o de clave pública (DHP, RSA, etc.)
En 1996, Peter Shor presentó un algoritmo para computación cuántica, basado en el uso de cúbits en lugar de bits, obligando a replantear el paradigma criptográfico imperante, arrasando con casi la totalidad de la criptografía actual: afecta a todos los criptosistemas de clave pública basados en aritmética de enteros, como DHP y RSA antes mencionados, y en cierto modo, incluso AES, entre otros. Sin embargo, la computadora cuántica no existía aún.
A medida que se reduce el tamaño de los transistores para producir microchips, siendo éstos cada vez más pequeños, se traduce en mayor velocidad de proceso. Sin embargo, resulta imposible fabricar chips infinitamente pequeños, ya que hay un límite tras el cual dejan de funcionar correctamente. Cuando se llega a la escala de nanómetros (una mil millonésima parte de un metro), los electrones se escapan de los canales por donde deben circular. A esto se le llama efecto túnel. Una partícula clásica, si se encuentra con un obstáculo, no puede atravesarlo y rebota. Pero con los electrones, que son partículas cuánticas y se comportan como ondas, existe la posibilidad de que una parte de ellos pueda atravesar las paredes si son lo suficientemente delgadas; de esta manera la señal puede pasar por canales donde no debería circular. En consecuencia, la computación digital como la conocemos no tardaría en llegar a su límite en cuanto a su capacidad de información. Surge entonces la necesidad de descubrir nuevas tecnologías que permitan aplicar estos avances en la mecánica cuántica, y es aquí donde la computación cuántica entra en escena. Las implicancias de la aplicación de la computación cuántica representan una mejora en las dimensiones en las que se almacena y procesa la información de manera digital, permitiendo realizar gran cantidad cálculos en simultáneo.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *