ИИ-чипы Google TPU обрели популярность спустя 10 лет после дебюта — Anthropic арендовала 1 млн ускорителей

Дефицит вычислительных мощностей, возникающий из-за стремительного развития систем искусственного интеллекта, выставляет в выгодном свете даже те платформы, которые на протяжении многих лет не пользовались популярностью. Процессоры TPU собственной разработки Google, например, оказались в большом количестве задействованы компанией Anthropic PBC при развитии вычислительной инфраструктуры.

Фитнес-браслет HUAWEI Band 10: настоящий металл

Hollow Knight: Silksong — песнь страданий и радостей. Рецензия

HUAWEI FreeArc: вероятно, самые удобные TWS-наушники

Обзор умных часов HUAWEI WATCH 5: часы юбилейные

Почему ИИ никак не сесть на безматричную диету

Пять причин полюбить HONOR Magic7 Pro

Пять причин полюбить HONOR X8c

Пять причин полюбить HONOR Pad V9

Как поясняет Bloomberg, недавно Anthropic PBC заключила контракт с Google на использование более чем 1 ГВт вычислительной мощности, сделка оценивается десятками миллиардов долларов США. По её условиям, Anthropic получит доступ к 1 млн процессоров TPU собственной разработки Google, которые эксплуатируются в облачной инфраструктуре интернет-гиганта. До сих пор основным потребителем таких процессоров оставалась сама Google, хотя первые процессоры этого семейства были разработаны ею более десяти лет назад. Это уже не первый контракт такого рода между Google и Anthropic, но расширение сотрудничества между компаниями указывает на заинтересованность последней в использовании указанных процессоров.

Не исключено, что пример Anthropic вдохновит и прочие ИИ-стартапы арендовать у Google вычислительные мощности, основанные на TPU. Разработку этих довольно узко специализированных процессоров Google начала в 2013 году, но первые модели представила только двумя годами позже. Первоначально они применялись для ускорения работы собственного поискового сервиса Google. В облачную инфраструктуру компания начала внедрять TPU в 2018 году, тем самым открыв доступ к данной платформе для сторонних клиентов. Со временем Google начала использовать TPU для работы фирменных ИИ-сервисов. Процессоры дорабатывались с учётом опыта, полученного при развитии соответствующих сервисов Google. В этом процессе были задействованы и специалисты DeepMind, также принадлежащей интернет-гиганту.

Чипы Nvidia в этой сфере считаются более универсальными и производительными, но они отличаются и высоким энергопотреблением, а также стоимостью и остаются в дефиците. TPU в процессе своей эволюции тоже неплохо приспособились к вычислительным нагрузкам, характерным для сферы ИИ. При этом они доступнее, потребляют меньше электроэнергии и не требуют столь серьёзного охлаждения. Помимо Anthropic, инфраструктуру Google на базе TPU для своих нужд используют Salesforce, Midjourney и стартап SSI одного из основателей OpenAI Ильи Суцкевера. Скорее всего, процессоры TPU со временем начнут применяться и за пределами облачной инфраструктуры самой Google.

При этом Google продолжит оставаться одним из крупнейших клиентов Nvidia, поскольку чипы последней лучше приспособлены к изменениям в характере вычислительных нагрузок. Собственные процессоры Google в этом отношении хуже адаптируются к изменениям без сопутствующих аппаратных преобразований. Новейшее поколение TPU под обозначением Ironwood было представлено в апреле, оно заточено под инференс и рассчитано на использование жидкостного охлаждения. В одном кластере может быть объединено либо 256 таких чипов, либо 9216 штук. Специалисты, которые стояли у истоков TPU, сейчас во многих случаях нашли себе работу в ИИ-стартапах. Они опосредованно поддерживают степень влияния Google в отрасли.

Оцените статью
Tgmaster.ru - Простые ответы на сложные вопросы