


La información que ha producido la humanidad en toda su historia puede generarse en una hora sólo por el uso de internet, de ahí la necesidad de una nueva arquitectura para procesar mayor número de datos, afirmó la doctora Genoveva Vargas Solar, directora adjunta del Laboratorio Franco-mexicano de Informática y Control Automático, quien impartió la conferencia magistral “Inteligencia artificial. Administración de Big Data y HPC: la trilogía para el avance de las ciencias centradas”.
Durante su participación en la octava edición del Congreso Internacional de Supercómputo en México (ISUM) 2017, organizado por la Coordinación General de Tecnologías de Información (CGTI), de la Universidad de Guadalajara (UdeG), la ponente explicó que el acelerado crecimiento de la información se topó con el límite tecnológico. Por eso se investiga para generar otras formas de guardarla.
Por ejemplo, dijo que hay investigaciones enfocadas en la producción de discos duros con base en materiales como el cristal. Lo que se requiere es una mayor capacidad y menos espacio para almacenamiento.
Ante los nuevos requerimientos, la NASA y empresas como Google aportan dinero y conocimiento tecnológico de vanguardia en el desarrollo de la computación cuántica. “Se trata de arquitecturas tecnológicas caras, que es necesario saber utilizar”, agregó.
La experta subrayó que las computadoras cuánticas tendrán capacidad para hacer cálculos y procesar información de manera más acelerada, lo que no se logra con la tecnología que actualmente es de uso extensivo.
Señaló que se requiere una arquitectura que sea evolución de High Performance Computing (HPC), que incluya algoritmos pertenecientes al área de inteligencia artificial y el manejo de datos.
“Son tres elementos clave para tener soluciones de buena calidad utilizando y explotando recursos diversos”.
Calculó que en tres o cuatro años podría haber ejemplares de nuevas arquitecturas para ciencia e investigación.
Vargas Solar explicó que la combinación de HPC o cómputo de alto desempeño; Big Data e inteligencia artificial tienen que ser a gran escala, de manera sistemática y con capacidad para abordar de manera más eficiente problemas complejos.
Explicó que Big Data implica tener colecciones de datos variadas y producidas de manera tan acelerada que la tecnología actual llega a sus límites para procesarlas y añadió que la inteligencia artificial implica la utilización de modelos matemáticos.
ISUM 2017 continuará mañana 3 de marzo con la conferencia “Importancia de realizar investigación científica de calidad”, que impartirá el doctor Alfredo Ignacio Feria y Velasco, director del Centro de Instrumentación Transdisciplinaria y de Servicios (Citrans), de la UdeG.
También se desarrollará el panel “Women in tics: mujeres en el mundo de las tecnologías”, en el que participará la doctora Carmen Rodríguez Armenta, coordinadora general Administrativa de esta Casa de Estudio.
A T E N T A M E N T E
"Piensa y Trabaja"
Guadalajara, Jal., 2 de marzo 2017
Texto: Martha Eva Loera
Fotografía: Adriana González