El Valor en Riesgo (VaR) es una medida de riesgo de mercado ampliamente usada por administradores de riesgo y autoridades regulatorias. Sin embargo, a pesar de que existe una gran variedad de metodologías propuestas en la literatura para la estimación del VaR, pocas de ellas dicen algo acerca de su distribución o sus intervalos de confianza. Este artículo compara distintas metodologías para calcular esos intervalos. Se utilizaron métodos basados en normalidad asintótica, teoría del valor extremo y bootstrap de submuestra. Usando simulaciones de Monte Carlo, se encontró que estas aproximaciones son válidas sólo para cuantiles altos. Particularmente, en términos de porcentaje de cobertura, estas metodologías presentan un buen desempeño para el VaR (99%) y un bajo desempeño para el VaR (95%) y el VaR (90%). En general, estos resultados se confirman a través de un ejercicio empírico aplicado a los bonos de deuda publica colombiana.