p_carnelley_m

Philip Carnelley

Research Director, European Software Group

Big Data no trata solo de grandes volúmenes de datos. En algunos casos Big Data conlleva problemas de velocidad, relacionados con la rapidez a la que se generan los datos. Además, implica lidiar con distintos asuntos: ¿se desea almacenar todos los datos? ¿se deben modificar antes de su almacenamiento?  Estos son algunos de los retos con los cuales los mercados financieros han tenido que lidiar durante mucho tiempo, debido a los millones de operaciones que se llevan a cabo en todo el mundo cada hora y que necesitan ser procesadas y almacenadas.

Parte de la solución puede radicar en una clase de productos llamados «streaming analytics’, es decir, soluciones que pueden realizar análisis en tiempo real de grandes volúmenes de datos entrantes.  Hasta hace poco, este ha sido un nicho especializado.  Sin embargo, las nuevas necesidades, tales como el análisis de clics de la web o el rápido aumento del número de dispositivos inteligentes conectados (Internet de las Cosas) han puesto de manifiesto que la velocidad de datos es un problema al que cada vez más empresas tendrán que hacer frente.

IDC estima que en 2020 habrá más de 20 millones de dispositivos inteligentes (y alrededor de 5 mil millones de teléfonos inteligentes), generando más de 50 petabytes de datos por día.  Por lo tanto, IDC cree que el número de organizaciones que requieran streaming analytics está destinado a aumentar rápidamente. Los casos de uso potenciales incluyen la mejora en la experiencia del cliente, una política de precios en tiempo real, la detección del fraude y el mantenimiento predictivo de maquinaria.

Las ofertas actuales, en general, se dividen en 2 campos: las ofertas establecidas de las grandes empresas de software como IBM, Microsoft y Oracle; y las nuevas soluciones de código abierto relacionadas con el proyecto Apache Hadoop, con nombres curiosos como Flink, Samza, Spark y Storm.

Las organizaciones que consideran que necesitan probar con un piloto de una de estas soluciones se enfrentan a un dilema: optar por una solución que puede ser cara, pero curtida en la batalla con un ecosistema de apoyo y de servicios; o probar con una oferta de código abierto, nueva y en rápida evolución, con una posible falta de apoyo y de personal experimentado.

Una nueva opción que potencialmente podría superar este dilema viene de Software AG, quien hace unos 3 años adquirió uno de los nombres más conocidos en este espacio, Apama. Apama comenzó como un proyecto de la Universidad de Cambridge en el Reino Unido que fue comercializado y, finalmente, terminó en la cartera de Software AG. Software AG ofrece ahora un » Community Edition» de Apama que se puede descargar gratis, sin necesidad de registro.  Esta edición gratuita también se puede implementar en la nube. Un aspecto de Apama que puede tener un atractivo especial es que puede funcionar tanto en dispositivos de edge computing como en dispositivos tradicionales.

IDC cree que el procesamiento edge computing va a llegar a ser un requisito clave para las soluciones de IoT. Para hacer frente a Big Data y los retos de velocidad, es importante un enfoque arquitectónico que permita procesar y filtrar los datos antes de que entren en el eje central de procesamiento, mediante la transmisión agregada, en lugar de enviar los datos en bruto, eliminando así  los datos potencialmente erróneos, entre otros problemas.

Este movimiento de Software AG no es puro altruismo, por supuesto.  Al igual que todas las ofertas freemium, la compañía espera que las organizaciones que utilicen la versión gratuita (que tiene algunas restricciones) se actualizarán a la versión completa para empresas.  Pero aplaudimos cualquier movimiento que pueda ayudar a ampliar la utilidad y aplicabilidad de esta tecnología cada vez más importante.

Fuente: artículo publicado en  www.uk.idc.com

Dejar un comentario