728x90 반응형 Papers/AI 관련1 "The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits" - 흥미로운 LLM논문 인스타 보다가 우연히 본 쓰레드 게시글 INT-8 형식은 잘 채택하지 않는것으로 알고 있는데, FP-16을 대체할 수 있다는 류의 내용이라 흥미가 생겼다. Transformer 알고리즘을 공부하고 HW 설계를 해볼 생각이였는데, 마침 좋은 공부를 할 수 있을 것 같다. https://github.com/microsoft/BitNet GitHub - microsoft/BitNet: Official inference framework for 1-bit LLMsOfficial inference framework for 1-bit LLMs. Contribute to microsoft/BitNet development by creating an account on GitHub.github.com논문 오픈소스 gi.. 2024. 10. 22. 이전 1 다음 728x90 반응형