Diez tendencias de Digitalización (2018-2020)

  • Jorge Díaz Cardiel

Estas diez tendencias generarán 50 billones de dólares y 3 millones de empleos de aquí a 2020.

1. Machine Learning ayudará a mejorar los análisis

La cultura popular está alimentando una visión distópica de lo que el aprendizaje automático puede hacer. Pero mientras la investigación y la tecnología continúan mejorando, el aprendizaje automático se está convirtiendo rápidamente en un valioso complemento para el analista. De hecho, el aprendizaje automático es el último asistente del analista.

Imaginemos que necesita mirar rápidamente el impacto de un cambio de precio en un producto determinado. Para hacer esto, ejecutaría una regresión lineal en sus datos. Antes de Excel, teníamos que hacer todo esto de forma manual y el proceso llevaba horas. Gracias al aprendizaje automático (Machine Learning), ahora puede verse el consumo del producto en cuestión de minutos, si no de segundos. Como analista, no se necesita hacer ese trabajo pesado, y puede pasar a la siguiente pregunta: ¿fueron los meses de mayor consumo debido a un factor extrínseco, como unas vacaciones? ¿Hubo un nuevo lanzamiento? ¿Hubo cobertura de noticias que influyó en la compra o el conocimiento del producto? Nos podemos concentrar en lo verdaderamente importante.

Hay dos formas en que el Machine Learning ayuda al analista. El primero es la eficiencia. Con el ejemplo anterior, el analista no gasta un tiempo valioso en matemáticas básicas. El analista ahora tiene más tiempo para pensar acerca de las implicaciones comerciales y los próximos pasos lógicos. En segundo lugar, ayuda al analista a explorar y mantenerse en el flujo de su análisis de datos porque ya no tiene que detenerse y reducir los números. En cambio, el analista está haciendo la siguiente pregunta. Tal como lo describe Ryan Atallah, famoso Ingeniero de Software, "Machine Learning ayuda a mirar debajo de muchas rocas, cuando necesitamos ayuda para obtener una respuesta".

El potencial del aprendizaje automático para ayudar a un analista es innegable, pero es fundamental reconocer que debe adoptarse cuando hay resultados claramente definidos. "El Machine Learning no es excelente cuando sus datos son subjetivos". Por ejemplo, cuando se realiza una encuesta a los clientes sobre la satisfacción del producto, ML no siempre puede retomar -por falta de entendimiento- palabras cualitativas.

Además, el analista necesita comprender las métricas de éxito para que los datos tengan sentido de una manera que sea procesable. En otras palabras, las entradas en una máquina no hacen que las salidas sean significativas. Solo un humano puede entender si se ha aplicado la cantidad correcta de contexto, lo cual significa que el aprendizaje automático no se puede hacer de forma aislada (sin una comprensión del modelo y qué entradas / salidas se están realizando).

Si bien puede haber preocupación por la substitución del hombre por la máquina, Machine Learning realmente mejorará el trabajo de los analistas y los hará más eficientes, más precisos y más relevantes para la empresa. En lugar de temer a la tecnología de aprendizaje automático, abramos la mente a las oportunidades que presenta.

2. El impacto humano de las artes liberales en la industria de análisis

A medida que la industria de análisis continúa buscando trabajadores de datos cualificados y las organizaciones buscan elevar su equipo de análisis, es posible que hayamos tenido una gran cantidad de talento en nuestras manos todo el tiempo (¡y no nos hayamos dado cuenta!). Estamos familiarizados con la forma en que el arte y la narración de historias han ayudado a influir en la industria del análisis de datos. Eso no es una sorpresa. Lo que sorprende es cómo los usuarios que entienden el arte de contar historias (story-telling) adquieren los aspectos técnicos de la creación de un tablero analítico, previamente reservado para TI y usuarios tecnológicamente avanzados, un conjunto de habilidades que provienen principalmente de las artes liberales. Además, las organizaciones están otorgando un mayor valor a la contratación de trabajadores que puedan utilizar datos e ideas para influir en el cambio e impulsar la transformación a través del arte y la persuasión, no solo en el análisis en sí.

A medida que las plataformas tecnológicas se vuelven más fáciles de usar, el enfoque en las especialidades tecnológicas disminuye. Todos pueden jugar con datos sin necesidad de tener las habilidades técnicas profundas que en la época de la Computación se necesitaron. Aquí es donde las personas con habilidades más amplias, incluidas las artes liberales, entran en el redil y generan impacto, donde las industrias y organizaciones tienen escasez de trabajadores de datos. A medida que más organizaciones se centren en el análisis de datos como una prioridad empresarial, estos administradores de datos de artes liberales ayudarán a las empresas a darse cuenta de que otorgar poder a su fuerza de trabajo es una ventaja competitiva.

No solo vemos un atractivo de amplia base para ayudar a contratar a una nueva generación de trabajadores de datos, también hemos observado varias instancias en las que las empresas basadas en tecnología fueron lideradas o fuertemente impactadas por fundadores con una educación en artes liberales. Esto incluye fundadores y ejecutivos de Slack, LinkedIn, PayPal, Pinterest y varias otras compañías de tecnología de alto rendimiento.

Un ejemplo poderoso de incorporar las artes liberales a una compañía predominantemente tecnológica proviene del reciente libro de Scott Hartley, "The Fuzzy and the Techie". Nissan contrató a una antropóloga, Melissa Cefkin, para dirigir la investigación de la compañía sobre la interacción humano-máquina, y específicamente interacción entre coches auto-conducidos los humanos. La tecnología detrás de los vehículos autónomos ha recorrido un largo camino, pero todavía enfrenta obstáculos cuando persisten los entornos mixtos entre humanos y máquinas. Usando una parada de cuatro vías como ejemplo, los humanos típicamente analizamos las situaciones caso por caso, lo que hace que sea casi imposible enseñar una máquina. Para ayudar a combatir este escenario, Cefkin tuvo la tarea de aprovechar su experiencia antropológica para identificar patrones en el comportamiento humano que pudiera enseñar mejor a estos autos auto-conducidos los patrones que los humanos siguen y, a su vez, comunicarlos a los humanos que viajan en el automóvil.

A medida que la analítica evoluciona para ser más arte y menos ciencia, el enfoque ha pasado de simplemente entregar los datos, a crear historias basadas en datos que inevitablemente conducen a decisiones. Las organizaciones están adoptando datos a una escala mucho más grande que nunca y la progresión natural significa un mayor énfasis en la narración de historias y la configuración de los datos.

3. La promesa del procesamiento del lenguaje natural

2018 verá que el procesamiento del lenguaje natural (PNL) crecerá en prevalencia, sofisticación y ubicuidad. A medida que los desarrolladores e ingenieros continúen perfeccionando su comprensión de la PNL, la integración de ésta en las áreas no realizadas también crecerá. La creciente popularidad de Amazon Alexa, Google Home, Telefónica Aura y Microsoft Cortana han nutrido las expectativas de las personas de que pueden hablar con su software y comprenderán qué hacer. Por ejemplo, al indicar un comando, "Alexa, juega 'Yellow Submarine'," la canción de los Beatles se reproduce en tu cocina mientras preparas la cena. Este mismo concepto también se está aplicando a los datos, lo que hace que sea más fácil para todos hacer preguntas y analizar los datos que tienen a mano.

Gartner pronostica para 2020 que el 50 por ciento de las consultas analíticas se generarán a través de búsquedas, PNL o voz. Esto significa que de repente será mucho más fácil para el CEO -sobre la marcha- pedirle rápidamente a su dispositivo móvil que le diga: "Ventas totales de clientes que compraron productos básicos en Nueva York", luego filtrar a "pedidos en los últimos 30 días". y luego que agrupe por "departamento del propietario del proyecto". O el director de la escuela de su hijo podría preguntar: "¿Cuál fue la nota promedio de los estudiantes este año?", luego filtrar a "estudiantes en 8 °grado" y agrupar por "asignatura del docente". PNL capacitará a las personas para que hagan preguntas más matizadas sobre los datos y reciban respuestas relevantes que conduzcan a mejores perspectivas y decisiones cotidianas.

Simultáneamente, los desarrolladores e ingenieros harán grandes avances en el aprendizaje y la comprensión de cómo las personas usan PNL. Examinarán cómo la gente hace preguntas, que van desde la gratificación instantánea ("¿qué producto tuvo la mayor cantidad de ventas?") Hasta la exploración ("No sé qué me pueden decir mis datos, ¿cómo está mi departamento?"). Como señala Ryan Atallah, "este comportamiento está muy ligado al contexto en el que se formula la pregunta". Si el usuario final está en su dispositivo móvil, es más probable que haga una pregunta que genera gratificación instantánea, mientras que, si están sentados en un escritorio mirando un tablero, probablemente estén buscando explorar y examinar una pregunta más profunda.

Los mayores avances en el análisis vendrán de la comprensión de los diversos flujos de trabajo que NLP puede aumentar: "la ambigüedad es un problema difícil", por lo que entender los flujos de trabajo es más importante que la entrada de una pregunta específica. Cuando hay varias formas de hacer la misma pregunta sobre los datos (por ejemplo, "¿Qué representante de ventas tuvo la mayor cantidad de ventas este trimestre?" O "¿Quién tuvo la mayor cantidad de ventas este trimestre?"), El usuario final no desea pensar en la forma "correcta" de preguntar: solo quiere la respuesta.

Por lo tanto, la oportunidad surgirá, no al colocar la PNL en cada situación, sino al hacerla disponible en los flujos de trabajo correctos para que se convierta en una segunda naturaleza para la persona que la usa.

4. MultiClould

"Hay una estampida de organizaciones que mueven sus datos a la nube y trasladan sus aplicaciones principales". "Y si se trata de una nueva plataforma, vemos que los clientes adoptan la nube a un ritmo mucho más rápido que nunca", afirma McAfee.

Según un reciente estudio de Gartner, "una estrategia de múltiples nubes se convertirá en la estrategia común para el 70 por ciento de las empresas en 2019, en comparación con menos del 10 por ciento actual". Los clientes están cada vez más preocupados por verse atrapados en una única solución de software heredada que no coincide con sus necesidades futuras. Sin embargo, el cambio y las migraciones se han vuelto relativamente más fáciles con API similares y el uso de estándares abiertos como Linux, Postgres, MySQL y otros.

Es probable que una organización también esté evaluando cómo se diseñan y ejecutan los centros de datos. El departamento de TI estará evaluando entornos de hosting basados en factores de riesgo, complejidad, velocidad y coste, que aumentan la dificultad de encontrar una única solución para las necesidades de la organización.

Evaluar e implementar un entorno de nube múltiple puede ayudar a determinar quién proporciona el mejor rendimiento y soporte para su situación. Según The Boston Herald, GE (General Electric) reorientó su estrategia de alojamiento en la nube para aprovechar Microsoft Azure y Amazon Web Services, con la intención de comprender el mejor entorno de hosting y ver qué contrato ofreccía el coste más bajo que repercutir a sus clientes.

Pero la tendencia de las múltiples nubes no se logra sin una conciencia saludable de los méritos y desafíos de pasar a este tipo de entorno. Si bien la flexibilidad es una ventaja, un entorno de múltiples nubes aumenta los costes generales de dividir las cargas de trabajo de una organización entre múltiples proveedores. Y un entorno de múltiples nubes obliga a un equipo interno de desarrolladores a aprender múltiples plataformas y tener procesos de gobierno adicionales en su lugar, dependiendo de los diferentes entornos que deben soportar.

Además, una estrategia de múltiples nubes podría disminuir el poder adquisitivo de una empresa u organización. Si una empresa divide lo que compra en múltiples proveedores, perjudicará sus descuentos por volumen. Esto crea un modelo en el que una empresa está comprando menos a un precio peor. En conclusión, el modelo multi-nube se aplicaría sobre todo a muy grandes corporaciones con fuerte músculo financiero para invertir en TIC.

Las encuestas y las estadísticas, como el estudio de Gartner antes mencionado, indican que la adopción de múltiples nubes está en aumento. Sin embargo, no indica qué parte de una plataforma determinada se adoptó. En muchos casos de nubes múltiples, las organizaciones están utilizando un proveedor para la mayoría de sus necesidades y muy poco para los demás. Pero, la mayoría de estos casos de uso recaen en la implementación de un segundo entorno de alojamiento en la nube como respaldo en caso de incompetencia o fallo del principal entorno de alojamiento en la nube.

Si bien el aumento de la adopción de múltiples nubes en 2018 va en aumento en el primer trimestre del año, las organizaciones tendrán que maniobrar para evaluar si su estrategia mide qué parte de cada plataforma en la nube se adoptó, el uso interno y las demandas de carga de trabajo y los costos de implementación.

5. El ascenso del Data Chief Officer

Los datos y los análisis se están convirtiendo en el núcleo de la organización. Eso es indestructible. A medida que las organizaciones evolucionan, priorizan un nuevo nivel de enfoque estratégico y responsabilidad con respecto a su análisis.

Históricamente, la mayoría de los esfuerzos de inteligencia empresarial se asignaron al Director de Sistemas (CIO), que supervisó la estandarización, consolidación y administración de los activos de datos en toda la organización, lo que requería informes consistentes. Esto puso las iniciativas de Business Intelligence (BI: gobierno de datos, construcción de modelos analíticos, etc.) en competencia con otras iniciativas estratégicas (como arquitectura de TI, seguridad del sistema o estrategia de red) bajo el control del CIO, y con frecuencia inhibió el éxito y el impacto de BI.

En algunos casos, se ha formado una brecha entre el CIO y el negocio debido a la velocidad de penetración con respecto a la seguridad y el gobierno de los datos. Por lo tanto, para obtener información procesable a partir de datos a través de inversiones en análisis, las organizaciones se dan cuenta cada vez más de la necesidad de rendir cuentas en C-Suite para crear una cultura de análisis. Para un número creciente de organizaciones, la respuesta es nombrar un Chief Data Officer (CDO) o Chief Analytics Officer (CAO) para liderar el cambio del proceso comercial, superar las barreras culturales y comunicar el valor de los análisis en todos los niveles de la organización. Esto permite que el CIO tenga un enfoque más estratégico en aspectos como la seguridad de los datos.

El hecho de que los CDO y / o los CAO estén siendo nombrados y se les asigne responsabilidad por el impacto comercial y los mejores resultados, también demuestra el valor estratégico de los datos y análisis en las organizaciones modernas. Ahora, hay una conversación proactiva en el nivel corporativo sobre cómo implementar una estrategia de análisis. En lugar de esperar las solicitudes de un informe en particular, los CDO preguntan: "¿Cómo podemos anticiparnos o adaptarnos rápidamente a las solicitudes comerciales?"

Para facilitar de la mejor manera un equipo altamente eficaz en esta posición de nivel C, las organizaciones están dedicando más dinero y recursos. Según Gartner, 80 por ciento de las grandes empresas tendrán una oficina CDO completamente implementada para 2020. Actualmente, el número promedio de empleados en la oficina es 38, pero el 66 por ciento de las organizaciones encuestadas por Gartner speran que el presupuesto asignado para la oficina crezca.

El Estudio Advice de Éxito Empresarial sobre 400 empresas TIC señala que el papel del CDO está "enfocado a los resultados". Afirma que "no se trata solo de poner datos en un almacén y esperar que alguien lo use; están ahí para definir su uso fundamental, lo cual se alinea con los tres objetivos principales de nuestra encuesta: mayor relación con los clientes, mayor ventaja competitiva y mejora en la eficiencia. Estos objetivos impulsan a compañías como Wells Fargo, IBM, Aetna y Ancestry a contratar CDO con la intención de llevar su estrategia de datos al siguiente nivel, convirtiendo el puesto de Chief Data Officer en un negocio básico en 2018.

6. El futuro de la “gobernanza” de los datos se basa en Crowdsourcing

El equipo moderno de inteligencia empresarial ha progresado desde el cierre de datos y contenido hasta el empoderamiento de los usuarios empresariales de todo el mundo para utilizar datos gestionados y de confianza para obtener información valiosa. Y, a medida que las personas aprenden a usar datos en más situaciones, su aporte sobre mejores modelos de gobernabilidad se ha convertido en una fuerza monumental dentro de las organizaciones.

Es un eufemismo decir que el análisis de autoservicio ha trastornado el mundo de la inteligencia empresarial. El paradigma cambió a cualquier persona que tenga la capacidad de crear análisis que conduzcan a la formulación y respuesta de preguntas críticas en toda la organización. La misma interrupción está sucediendo con la gobernanza. A medida que se expande el análisis de autoservicio, un embudo de perspectivas e información valiosas comienza a inspirar formas nuevas e innovadoras de implementar la gobernanza. Se trata de utilizar la sabiduría de la multitud para obtener los datos correctos para la persona adecuada en vez de inundar con datos a la persona equivocada.

Para el usuario comercial, la última responsabilidad que desean es la seguridad de los datos. Las políticas de buena gobernanza permiten que los usuarios de negocios hagan y respondan preguntas, al mismo tiempo que les permite encontrar los datos que necesitan, en el momento preciso en que los necesitan.

Las estrategias de BI y análisis abarcarán el modelo de gobernanza moderno: los departamentos de TI y los ingenieros de datos seleccionarán y prepararán fuentes de datos fiables, y a medida que se incorpore el autoservicio, los usuarios finales tendrán la libertad de explorar datos fiables y seguros. Los procesos descendentes que sólo abordan el control de TI, serán descartados a favor de un proceso de desarrollo colaborativo que combine los talentos de TI y los usuarios finales. Juntos, identificarán los datos que son más importantes para dirigir y crearán reglas y procesos que maximicen el valor comercial de los análisis, sin comprometer la seguridad.

7. Asegurar/Garantizar los datos. La vulnerabilidad conduce a un aumento en el seguro de datos

Para muchas empresas, los datos son un activo comercial crítico. ¿Pero cómo se mide el valor de esa información? ¿Y qué pasa cuando los datos se pierden o son robados? Como hemos visto con recientes infracciones de datos de alto perfil (en Estados Unidos, Equifax, causando daño a 140 millones de clientes), una amenaza a los datos de una empresa puede ser paralizante y potencialmente causar un daño irreparable a la marca.

Según un estudio realizado en 2017 por el Instituto Ponemon, el coste total promedio de una violación de datos se estimó en 3.62 millones de dólares.

Pero, ¿están haciendo las empresas todo lo posible para proteger y asegurar sus datos? Una industria que crece rápidamente en respuesta a las violaciones de datos es el mercado de seguros de seguridad cibernética. Esta industria ha experimentado un crecimiento del 30 por ciento anual, con el sector preparado para alcanzar 5.600 millones de dólares en primas anuales brutas por escrito para 2020. (AEON, principal aseguradora del mundo)

El seguro cibernético y de privacidad cubre la responsabilidad de una empresa por una violación de datos en la que un pirata informático expone o roba la información personal del cliente.

La necesidad de políticas con las instituciones financieras es clara. Pero la tendencia se ampliará a otras verticales porque nadie es inmune a la amenaza de una violación de datos. Doug Laney, analista de Gartner, escribió recientemente un libro titulado, "Infonomics: cómo monetizar, administrar y medir la información para obtener ventajas competitivas". Proporciona distintos modelos sobre cómo las empresas de todos los sectores pueden revisar el valor de sus datos en modelos financieros.

Los modelos no financieros se centran en el valor intrínseco, el valor comercial y el valor de rendimiento de los datos. Estos valores pueden medir la singularidad, precisión, relevancia, eficiencias internas e impacto global de una empresa en su uso.

Los modelos financieros se centran en el valor del coste, el valor económico y el valor de mercado de los datos. Estos valores pueden medir el coste de adquirir datos, administrar los datos internamente y el valor de vender o licenciar sus datos.

La información como materia prima significa que su valor solo aumentará y, en última instancia, generará nuevas preguntas y conversaciones sobre cómo esta materia prima continuará proyectando a las compañías a mayores alturas y ventajas. Y, como cualquier producto, ¿de qué sirve la información si se puede robar sin consecuencias?

7. Mayor prominencia del rol del gestor de datos

Aquí hay una certeza: no puede crear un tablero sin tener todos sus cuadros elaborados para que se pueda entender la historia que se está tratando de comunicar. Otro principio que probablemente se conozca: no es posible tener una fuente de datos fiable sin antes entender el tipo de datos que entran en un sistema y cómo sacarlos.

Los gestores de datos continuarán siendo una parte integral del movimiento de una organización, para usar datos que ayuden a tomar mejores decisiones sobre sus negocios. Entre 2013 y 2015, el número de gestores de datos aumentó a más del doble. Y a partir de octubre de 2017, había más de 2.500 puestos vacantes como "gestores de datos" en LinkedIn, lo que indica la creciente y continua demanda de esta especialidad.

Entonces, ¿cuál es este papel y por qué es tan importante? El gestor de datos es responsable de diseñar, construir y administrar las bases de datos operacionales y de análisis de una empresa. En otras palabras, son responsables de extraer los datos de los sistemas fundacionales del negocio de una manera que pueda ser utilizada y aprovechada para obtener ideas y decisiones. A medida que aumenta la tasa de datos y la capacidad de almacenamiento, alguien que posee un profundo conocimiento técnico de los diferentes sistemas, la arquitectura y la capacidad de comprender lo que la empresa quiere o necesita comienza a ser cada vez más crucial.

Sin embargo, el rol de gestor de datos requiere un conjunto de habilidades único. Necesitan entender el back-end, qué hay en los datos y cómo puede servirle al usuario comercial. El gestor de datos también necesita desarrollar soluciones técnicas para hacer que los datos sean utilizables en todas las áreas de la empresa.

8. La ubicación de las cosas impulsará la innovación de la IOT

Es un eufemismo decir que la proliferación de Internet de las Cosas (IoT) ha impulsado un crecimiento monumental en la cantidad de dispositivos conectados que vemos en el mundo. Todos estos dispositivos interactúan con cada uno de ellos y capturan datos que generan una experiencia más conectada. De hecho, Advice Strategic Consultants predice que para el año 2020 el número de dispositivos IoT disponibles para los consumidores será más del doble "con 20.400 millones de dispositivos IoT en línea".

Incluso con este crecimiento, los casos de uso y la implementación de los datos de IoT no han seguido el mismo camino deseable. Las empresas tienen inquietudes sobre la seguridad, pero la mayoría no tienen los conjuntos de habilidades organizacionales correctas o la infraestructura técnica interna con otras aplicaciones y plataformas para admitir los datos de IoT.

Una tendencia positiva que estamos viendo es el uso y los beneficios de aprovechar datos basados en la ubicación con dispositivos IoT. Esta subcategoría, denominada "ubicación de cosas", proporciona a los dispositivos de IoT detección y comunica su posición geográfica. Al saber dónde se encuentra un dispositivo de IoT, nos permite agregar contexto, comprender mejor lo que está sucediendo y lo que predecimos que sucederá en una ubicación específica.

Para las empresas y organizaciones que buscan capturar esta recopilación de datos, estamos viendo que se usan diferentes tecnologías. Por ejemplo, los hospitales, las tiendas y los hoteles han empezado a utilizar la tecnología Bluetooth Low Energy (BLE) para los servicios de ubicación en el interior, que, por lo general, era difícil para el GPS proporcionar una ubicación contextual. La tecnología se puede utilizar para rastrear activos específicos, personas e incluso interactuar con dispositivos móviles como relojes inteligentes, insignias o etiquetas para proporcionar experiencias personalizadas.

En lo que se refiere al análisis de los datos, las cifras basadas en la ubicación se pueden ver como una entrada frente a una salida de resultados. Si los datos están disponibles, los analistas pueden incorporar esta información con su análisis para comprender mejor qué está sucediendo, dónde está sucediendo y qué deberían esperar que ocurra en un área contextual.

10. Las universidades adoptan programas de ciencia de datos y análisis

La Universidad Estatal de Carolina del Norte es el hogar del primer programa de Master of Science Analytics. El MSA está ubicado dentro de su Instituto de Análisis Avanzado (IAA), un centro de datos con la misión de "producir los mejores profesionales analíticos del mundo, personas que han dominado métodos y herramientas complejos para la creación de modelos de datos a gran escala [y] que tienen una pasión para resolver problemas desafiantes ... "Como el primero de su tipo, el programa NC State ha prefigurado la inversión pronunciada de la academia en el currículo de ciencia de datos y análisis.

A principios de 2018, la Universidad de California en San Diego lanzó una primera iniciativa para su institución: una licenciatura en ciencias de la información (no nos referimos al Periodismo). No se detuvieron allí. La universidad también hizo planes, sobrealimentados por una donación de alumnos, para crear un instituto de ciencias de datos. Siguiendo el ejemplo, UC Berkeley, UC Davis y UC Santa Cruz han aumentado sus opciones de análisis de datos y análisis para los estudiantes, con una demanda que excede las expectativas. Pero, ¿por qué?

De acuerdo con un estudio reciente de PwC, el 69 por ciento de los empleadores para el año 2021 exigirá conocimientos de ciencias de datos y análisis de los candidatos para el puesto. En 2017, Glassdoor también informó que la "ciencia de datos", por segundo año consecutivo, era un "trabajo superior". A medida que crece la demanda de los empleadores, la urgencia de llenar un embudo de muchos datos altamente calificados se vuelve más crítica. Pero hay una brecha en la realidad. El mismo informe de PwC cita que solo el 23 por ciento de los graduados universitarios tendrán las habilidades necesarias para competir en el nivel que demandan los empleadores. Una encuesta reciente de MIT encontró que el 40 por ciento de los gerentes tienen problemas para contratar talento analítico.

Las habilidades duras de la analítica ya no son una “elección”; ellos son un mandato necesario. 2018 comenzará a ver un enfoque más riguroso para asegurarse de que los estudiantes posean las habilidades para unirse a la fuerza de trabajo moderna. Y a medida que las compañías continúen perfeccionando sus datos para extraer el mayor valor, la demanda de una fuerza de trabajo con gran conocimiento de los datos existirá y crecerá.

Jorge Díaz Cardiel. Socio Director Advice Strategic Consultants. Autor de Digitalización y Éxito Empresarial