Michael E. Driscoll publica en su blog Dataspora un buen par de posts titulados Data singularity explicando las consecuencias que tendrá el drástico abaratamiento del espacio de almacenamiento digital.
Driscoll predice que el business intelligence clásico morirá y será reemplazado por una combinación de almacenamiento distribuido y algoritmos de filtrado y análisis escritos con herramientas como R. Pone como ejemplo la revisión de fotos de satélites militares, pero existen muchísimos casos en los cuales un proceso genera más información de la que se puede tratar. Algunos de los más relevantes son los experimentos con ADN, el análisis de colisiones del LHC o, más próximo al mundo cotidiano, el análisis de las ventas de artículos en cualquier cadena de retail.
El progreso tecnológico ha commoditizado el espacio de almacenamiento, y existen genéricas herramientas para la manipulación masiva de datos, pero casi todos los algoritmos para extraer información relevante son todavía técnicas ad-hoc.
Ya no es suficiente con que las herramientas de reporting extraigan información de las bases de datos, además tienen que ser capaces de interpretar dicha información y presentarla de forma visual de una manera en que los humanos puedan interpretar y utilizar para tomar decisiones. Esto va mucho más allá de pintar meras gráficas. Lo que se necesitan son sistemas expertos que tomen como entrada un puñado de KPIs y, utilizando la información histórica, propongan acciones para optimizarlos. Esto requiere dotar al sistema no sólo de datos entrada sino también de conocimiento sobre las acciones posibles y sobre qué consecuencias tienen dichas acciones. Los humanos lo hacen a ojímetro de forma natural: se acerca la Navidad luego hay que poner anuncios de juguetes en la programación matinal.
En poco tiempo el mundo se volverá tan complejo que pasaremos de hablar de herramientas de ayuda a la toma de decisiones a herramientas imprescindibles para la toma de cualquier decisión.