Mempercepat dan mengurangi penggunaan memori tanpa mengorbankan akurasi model
1,235 ViewsMempercepat dan mengurangi penggunaan memori tanpa mengorbankan akurasi model menggunakan GradScaler. torch.cuda.amp.GradScaler adalah kelas yang disediakan oleh PyTorch untuk memfasilitasi pelatihan model deep learning dengan precision campuran (mixed precision). Mixed precision adalah teknik yang menggunakan kombinasi angka floating point 16-bit (FP16) dan 32-bit (FP32) untuk mempercepat pelatihan dan mengurangi penggunaan memori tanpa mengorbankan akurasi… Read More »