Aceleración de GPU para inferencia causal

Con el crecimiento continuo de los datos generados por las aplicaciones de consumo, las empresas adoptan cada vez más métodos de inferencia causal para analizar datos de observación. En la última década, el aprendizaje automático doble ha surgido como una técnica que combina modelos de aprendizaje automático con problemas de inferencia causal.

Sin embargo, procesar grandes conjuntos de datos en las CPU ha sido un desafío. NVIDIA RAPIDS, una biblioteca de inteligencia artificial y ciencia de datos acelerada por GPU de código abierto, incluye cuML, que es una biblioteca de aprendizaje automático para Python y compatible con scikit-learn. Al integrar RAPIDS cuML con la biblioteca DoubleML, los científicos de datos pueden lograr una inferencia causal más rápida y manejar de manera eficaz grandes conjuntos de datos.

Esta tecnología puede proporcionar una aceleración de hasta 12 veces en comparación con los métodos basados ​​en CPU con ajustes de código mínimos.

Fuente

La publicación Liberando el poder de la GPU: acelerando la inferencia causal para el análisis de big data apareció por primera vez en CoinBuzzFeed.