Новая методика оптимизации LLM сокращает затраты памяти до 75%
Исследователи токийского стартапа Sakana AI разработали новую технологию, которая позволяет языковым моделям более эффективно использовать память.
Это позволит предприятиям сократить расходы на создание приложений на основе больших языковых моделей (LLM) и других моделей на основе Transformer.Метод называется « универсальной памятью трансформеров».
habr.com