Mostrar el registro sencillo de la publicación

dc.contributor.authorHernández, Sergio
dc.contributor.authorLópez-Cortes, Xaviera
dc.date.accessioned2025-05-29T18:59:14Z
dc.date.available2025-05-29T18:59:14Z
dc.date.issued2025
dc.identifier.urihttp://repositorio.ucm.cl/handle/ucm/6064
dc.description.abstractIn this paper, we propose a novel quantization technique for Bayesian deep learning aimed at enhancing efficiency without compromising performance. Our approach leverages post-training quantization to significantly reduce the memory footprint of stochastic gradient samplers, particularly Stochastic Gradient Markov Chain Monte Carlo (SG-MCMC) methods. This technique achieves a level of compression comparable to optimal thinning, which traditionally necessitates not only the original samples in single precision floating-point representation but also the gradients, resulting in substantial computational overhead. In contrast, our quantization method requires only the original samples and can accurately recover posterior modes through a simple affine transformation. This process incurs minimal additional memory or computational costs, making it a highly efficient alternative for Bayesian deep learning applications.es_CL
dc.language.isoenes_CL
dc.rightsAtribución-NoComercial-SinDerivadas 3.0 Chile*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/cl/*
dc.sourceCommunications in Computer and Information Science, 2270, 158-169es_CL
dc.titleQuantized SG-MCMC for Bayesian deep posterior compressiones_CL
dc.typeArticlees_CL
dc.ucm.facultadFacultad de Ciencias de la Ingenieríaes_CL
dc.ucm.indexacionScopuses_CL
dc.ucm.urispringerlink.ucm.elogim.com/chapter/10.1007/978-3-031-80084-9_11es_CL
dc.ucm.doidoi.org/10.1007/978-3-031-80084-9_11es_CL


Ficheros en la publicación

FicherosTamañoFormatoVer

No hay ficheros asociados a esta publicación.

Esta publicación aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo de la publicación

Atribución-NoComercial-SinDerivadas 3.0 Chile
Excepto si se señala otra cosa, la licencia de la publicación se describe como Atribución-NoComercial-SinDerivadas 3.0 Chile