Дослідники виявили, що причина втрат енергії полягає в нерівномірному розподілі навантаження між процесорами. (Фото: pixabay)
Вчені з Мічиганського університету знайшли спосіб значно скоротити енерговитрати на навчання великих мовних моделей, подібних до GPT. Новий програмний інструмент, названий Perseus, дає змогу оптимізувати процес навчання і знизити споживання енергії на цілих 30%.
Коментарів немає