반응형 Amp1 파이썬 숫자 정밀도 FP32와 FP16 차이점 및 딥러닝과의 연관성 파이썬이나 코딩을 하시는 분들은 FP32, FP16등에 대해서 들어보셨을거에요. 오늘은 관련 개념을 정리하고 딥러닝과의 연관성에 대해서 이야기해보겠습니다.FP32 (32-bit Floating Point)FP32는 32비트 부동소수점 숫자를 표현하는 방식으로, 다음과 같은 구성 요소로 이루어집니다:1비트: 부호 (Sign)8비트: 지수 (Exponent)23비트: 가수 (Mantissa) 또는 유효숫자FP32는 높은 정밀도를 제공하여, 다양한 범위의 숫자를 정확하게 계산할 수 있습니다. 이 형식은 과학적 계산 및 고정밀 계산에 적합합니다. 표현 가능한 수는 [2^-149, ~3,4 x10^38] 입니다.FP16 (16-bit Floating Point)FP16은 16비트 부동소수점 숫자를 표현하는 방식으.. 2024. 12. 14. 이전 1 다음 반응형