Big Data aplicado a la gestión de activos: ¿cómo conseguir un plus de rentabilidad?

foto
Funds People

Mucho se ha hablado de las aplicaciones comerciales de las tecnologías asociadas al big data, consistentes grosso modo en el procesamiento de grandes volúmenes de datos para extraer información competitiva. Ahora bien, ¿qué aplicaciones puede tener sobre la gestión de activos? Y, como se preguntan muchos inversores, ¿se pueden obtener resultados tangibles en forma de rentabilidades adicionales? Los expertos de Goldman Sachs AM han sido capaces de dar una respuesta afirmativa a la última pregunta, y lo demuestran a través del sofisticado proceso de inversión cuantitativo que aplican a sus fondos GS CORE Equity. 

Se trata de una gama de seis fondos de renta variable con un amplio track record que tienen como referencia índices de la familia MSCI. Expertos de la firma subrayan que, a pesar de invertir en acciones, cuentan con un enfoque muy conservador, con un tracking error que va desde el 2,5% del producto que invierte en renta variable estadounidense al 5% del que invierte en renta variable emergente. Desde Goldman Sachs AM explican que el inversor debe pensar en estos productos como una apuesta de valor relativo frente al índice si se compara con otros fondos que invierten en esta clase de activo. 

La diversificación también es clave: las carteras de los fondos de esta gama suelen contener en torno a 150 posiciones con ponderaciones entre el 1% y el 2%. El tamaño de las posiciones se ajusta constantemente (se testea cada cartera una vez cada seis días), de tal forma que la rotación de activos se sitúa entre el 150% y el 190% anual. Las carteras son neutrales por estilo y sector, lo que permite a los GS Core Equity tener una correlación muy baja respecto a otros competidores. 

Big data aplicado a la construcción de carteras

El big data es clave en la selección de valores y la determinación de sus distintas ponderaciones. Javier Rodríguez-Alarcón se encarga de explicar con detalle su aplicación en la construcción de las carteras de la gama. “El análisis convencional de los fundamentales es insuficiente, existe la necesidad de nuevos procesamientos”, comenta sobre la pertinencia del  procesamiento de grandes cantidades de datos. “Si eres capaz de procesar y entender los datos más rápidamente, obtienes una ventaja competitiva”, añade. 

No obstante, la fortaleza del modelo no sería posible sin la alta cualificación del equipo gestor, que cuenta con una experiencia de 25 años. El equipo fue fundado por el ex jefe de riesgos de Goldman Sachs, Robert Litterman, también conocido por su coautoría del modelo Black- Litterman de construcción de carteras. Además de analistas y gestores, en el equipo trabajan ingenieros y académicos, pues se pretende incorporar a profesionales que puedan aportar nuevos elementos diferenciales en el modelo de análisis en un mercado cada vez más eficiente y competitivo. Un ejemplo de esta filosofía es la inclusión en el modelo el procesamiento del lenguaje natural, consistente en la detección del cambio del lenguaje que emplean los analistas en sus informes para poder anticiparse a un cambio de recomendación.

El modelo de análisis que ha desarrollado el equipo de Goldman Sachs AM está compuesto por dos vectores: compañías con los fundamentales más fuertes y compañías que cuentan con mayor respaldo del sentimiento de los inversores. “El big data sirve para seleccionar los datos tradicionales y otros que no están estructurados”, comenta Rodríguez-Alarcón. El modelo incluye hasta 600 variables diferentes, pero el equipo es capaz de crear nuevas métricas (una media de cuatro al año) para ir adaptándolo a la evolución de la sociedad y de la economía. Un ejemplo: años anteriores, se estudiaba el tráfico de coches en los aparcamientos de Wal-Mart para determinar la afluencia de compradores; al popularizarse las compras por internet, se ha eliminado este signo y se ha incorporado al modelo datos sobre tráfico de páginas web en compañías de comercio online como Amazon. 

El procesamiento de datos sirve para filtrar valores del universo de acuerdo con los criterios de momento, valoración y rentabilidad de las compañías del universo. Dentro de la etiqueta “momentum” figuran por ejemplo el estudio de la evolución de las recomendaciones de los analistas, el análisis de las relaciones entre compañías y con  los eslabones de su cadena de proveedores o las tendencias en ciclos económicos a nivel regional y global. En la pata de valoración se observan métricas fundamentales como el PER o el valor en líbros, así como métricas específicas a cada industria, se trata de predecir los cambios en esas métricas y se monitoriza la evolución de la recompra de acciones (share buybacks). Finalmente, los miembros del equipo determinan si una compañía ofrece una rentabilidad convincente o no a través del análisis – entre otros factores- de los márgenes de beneficio, la relación entre beneficios y efectivo o descomponiendo la valoración por divisiones de negocio según áreas geográficas.

 “La ventaja del big data es que se puede analizar un universo muy amplio de forma diaria, y permite adaptar los modelos de valoración a distintos modelos de negocio por sector”, indica el gestor al respecto. También destaca en último lugar su validez como una forma de anticipar giros bruscos en los mercados: “El big data ayuda a predecir la extensión de una corrección gracias a la incorporación de datos sobre momento y sentimiento”, concluye Rodríguez-Alarcón. 

Gracias a la aplicación de este modelo cuantitativo, los seis fondos de la gama han conseguido situarse en el primer cuartil de su categoría a tres y cinco años. Además, se sitúan en el primer cuartil a un año los fondos GS Growth & Emerging Markets CORE Equity, GS Global CORE Equity y GS Europe Core Equity. Los otros tres (GS Global Small Cap CORE, GS US Small Cap CORE y GS US CORE Equity) se encuentran en el segundo cuartil a un año. El fondo que ha sido capaz de generar un mayor retorno adicional a un año ha sido el GS Europe CORE, de 821 puntos básicos.