Google DeepMind (Google DeepMind)

Перейти к навигации Перейти к поиску
Google DeepMind
Изображение логотипа
Тип дочернее общество и бизнес
Основание 2010
Прежние названия DeepMind Technologies Limited (2010–2023)
Основатели Шейн Легг[вд], Демис Хассабис и Мустафа Сулейман[вд]
Расположение Лондон, Великобритания
Ключевые фигуры Демис Хассабис (CEO)
Лила Ибрагим (COO)
Отрасль ИИ
Продукция AlphaGo, AlphaFold, AlphaGo Zero[вд] и Gemini[вд]
Число сотрудников 1,000 (на 2022)[1]
Материнская компания Google (2014–2015)
Alphabet (2015–2023)
Google (c 2023)
Сайт deepmind.google (англ.)
Логотип Викисклада Медиафайлы на Викискладе

Google DeepMind, ранее DeepMind Technologies, — британская компания, занимающаяся искусственным интеллектом. Основана в 2010 году в Лондоне под названием DeepMind Technologies. В 2014 году была приобретена Google.

Компания получила известность благодаря разработке компьютерной системы AlphaGo, победившей профессионального игрока в го[2]. DeepMind создала нейронную сеть, способную научиться играть в видеоигры на уровне человека[3]. В 2020 году компания разработала программу AlphaFold2, позволяющую решать одну из фундаментальных проблем биологической науки по построению трёхмерных моделей белков[4].

В 2022 году компания разработала нейросетевой алгоритм AlphaTensor, при помощи которого были найдены несколько новых алгоритмов перемножения матриц небольших размерностей. Так для матриц 4X4 алгоритм Штрассена требует 49 умножений, а AlphaTensor нашёл алгоритм, требующий 47 умножений, но работает он только для поля [англ.].[5][6]

В апреле 2023 года компания объединилась с подразделением Google Brain и стала Google DeepMind[7].

В 2010 году Демис Хассабис, Шейн Легг, Мустафа Сулейман основали стартап DeepMind Technologies[8]. До того Хассабис и Легг уже были знакомы по Университетскому Колледжу Лондона, где работали в подразделении вычислительной нейробиологии Gatsby (Gatsby Computational Neuroscience Unit, www.gatsby.ucl.ac.uk)[9].

В компанию вложились большие венчурные фонды Horizons Ventures, Founders Fund[10], а также предприниматели Скотт Банистер[11] и Илон Маск[12]. Ян Таллинн был одним из ранних инвесторов и советников компании[13].

В 2014 DeepMind получила награду «Компания года» от Компьютерной лаборатории Кембриджского университета[14].

26 января 2014 года Google объявил о приобретении DeepMind Technologies[15]. По разным сообщениям сумма сделки составила от 400 до 650 миллионов долларов[16][17][18][19]. Сообщается, что сделка состоялась после того, как Facebook прекратил переговоры о покупке DeepMind Technologies в 2013 году[20]. Одним из условий сделки DeepMind с Google было создание последней коллегии по этическим проблемам искусственного интеллекта[21].

После покупки Google компания стала называться Google DeepMind.

В начале сентября 2016 года компания перешла в родительскую компанию Google — Alphabet, а из её названия исчезло упоминание Google, теперь она известна как DeepMind Technologies Limited или же DeepMind. Также веб-сайт компании сменил дизайн.

В апреле 2023 года DeepMind объединилась с подразделением Google Brain и образовала Google DeepMind в рамках продолжающихся усилий компании по ускорению работы над ИИ[7].

Направление исследований

[править | править код]

Цель компании — «решить проблему интеллекта»[22]. Для этого они используют «лучшие технологии, начиная от машинного обучения и заканчивая системной психофизиологией, чтобы создать в итоге обучающиеся алгоритмы общего назначения»[22]. Также они работают над формализацией интеллекта[23] для того, чтобы не только реализовать его в машинах, но и чтобы понять, как работает мозг человека. По словам Демиса Хассабиса[24]:

... попытка извлечь сущность интеллекта в виде алгоритмической конструкции может оказаться наилучшим способом понять самые глубокие тайны нашего ума.

Решение проблемы интеллекта DeepMind видит в создании универсальных самообучающихся интеллектуальных агентов, которые были бы способны автономно обучаться на необработанных входных данных и были бы пригодны для решения любых задач в отличие от «ограниченных ИИ», таких как Deep Blue или IBM Watson, решающих только одну предопределённую задачу. В качестве основного подхода к построению интеллектуальных агентов выбрано обучение с подкреплением[25].

В настоящий момент компания занимается исследованиями в области компьютерных систем, которые умеют играть в различные игры — от стратегических игр вроде го до компьютерных аркад. Шейн Легг утверждает, что искусственный интеллект сможет достичь уровня человека, «когда машина научится играть в широкий класс игр, используя только входной и выходной сигналы потока восприятия, и переносить понимание из игры в игру...»[26]. Демис Хассабис объясняет фокус на играх, а не на более традиционной робототехнике, тем, что «роботы — дорогие, медленные и часто ломаются... исследователь отвлекается на починку механических деталей робота...»[25]. Сообщается, что Google купил компанию именно после публикации исследования об ИИ, успешно играющего в семь различных Atari-игр (Pong, Breakout, Space Invaders, Seaquest, Beamrider, Enduro, Q*bert)[3].

В начале 2018 года исследователи из DeepMind обучили одну из своих систем играть в компьютерную игру Quake III Arena. Через некоторое время, потраченное на тренировки, по уровню игры эта система сначала догнала, а затем и перегнала людей, являющихся сильными игроками[27][28].

Нейронная машина Тьюринга

[править | править код]

В 2014 году DeepMind опубликовал архитектуру гибридной нейронной сети, состоящую из рекуррентной нейросети и внешней памяти[29][30]. Нейросеть использует внешнюю память для записи и последующего чтения информации так же, как это делает машина Тьюринга, по этой причине архитектуре дали название «Нейронная машина Тьюринга» (Neural Turing Machine). По замыслу исследователей Нейронная машина Тьюринга имитирует кратковременную память человека и позволяет понять принципы её работы. В экспериментах нейросеть успешно обучалась простым алгоритмам: копирование, сортировка, ассоциативная память.

Глубинное обучение с подкреплением в видеоиграх

[править | править код]

DeepMind представил систему ИИ, которая способна обучиться играть в классические игры 70-80-х гг. для игровой консоли Atari 2600[31][32][33][34][35]. В исследовании ИИ обучался игре в 49 видеоигр. В результате был достигнут уровень игры сравнимый с уровнем человека, а в 22 играх система смогла превзойти человека. ИИ DeepMind не запрограммирован жестко под конкретную игру. В начале обучения система ничего не знает о правилах игры и учится играть самостоятельно, используя на входе только пиксельное изображение игры и информацию об очках, получаемых в ходе игры.

В основе ИИ лежит подход, который DeepMind называет глубинным обучением с подкреплением, или deep Q-network (DQN)[31][33]. Это вариация обучения с подкреплением без модели с применением Q-обучения, в котором функция полезности моделируется с помощью глубинной нейронной сети. В качестве архитектуры нейросети выбрана свёрточная нейронная сеть, в настоящее время эта архитектура эффективно применяется для распознавания изображений.

В планах DeepMind научить ИИ, построенного на тех же принципах, играть в более сложные 3D игры 90-х, такие как Doom и гоночные симуляторы[25]. В феврале 2016 были представлены первые результаты обучения ИИ 3D играм[36][37]. ИИ смог обучиться управлению машиной в 3D гоночном симуляторе TORCS[38], поиску выхода и призов в Doom-подобном 3D лабиринте Labyrinth [39], выполнению простых задач (локомоция, поддержание равновесия, манипуляция предметами) в физическом симуляторе MuJoCo (www.mujoco.org)[40]. Как и прежде на вход ИИ подавалось только пиксельное изображение «мира». Архитектура нейросети была расширена добавлением LSTM, разновидности рекуррентной нейронной сети.

На ежегодном фестивале Blizzcon 2016 компания Blizzard, которая является инициатором данного мероприятия, объявила о своем сотрудничестве с компанией DeepMind. Затем об этом событии была опубликована статья на официальных блогах обеих компаний[41][42]. Целью данного сотрудничества является внедрение и обучение ИИ в игре Starcraft II. По мнению разработчиков игры — Starcraft II является идеальной средой для обучения искусственного интеллекта, поскольку сложные правила игры достаточно отражают сложность и многогранность реального мира. К тому же, само коммьюнити считало эту игру самой большой проблемой для ИИ, сумевшего победить человека в игре в го, шахматы и покер[43].

StarCraft II — идеальная среда, которая позволит вывести исследования, связанные с созданием искусственного интеллекта, на новый уровень. Сложные правила игры в достаточной мере отражают многогранность и хаотичность реального мира. Сначала вы учитесь добывать ресурсы, затем возводить простые строения, исследовать карту и искать противника. Стоит производить больше боевых единиц или лучше будет укрепить оборонительный рубеж? Будете вы совершать атаки на раннем этапе или сосредоточитесь на развитии?

В данный момент ведется работа над «Starcraft 2 API», которая позволяет ИИ полностью взаимодействовать с интерфейсом игры, принять участие в разработке может любой желающий, для таковых были опубликованы технические задачи[44], которые планируется реализовать в первом квартале 2017 года. Сам ИИ будет обучаться, просматривая повторы других игроков, которые принимали участие в рейтинговых играх.

На турнире 19 декабря 2018 года между AlphaStar и двумя профессиональными игроками, входящими в сотню сильнейших TLO и MaNa, AlphaStar выиграла со счётом 10:0. При этом MaNa удалось победить в одной внезачётной игре[45][46][47]

24 января 2019 года была представлена программа AlphaStar, специализирующаяся на игре StarCraft II в жанре стратегии в реальном времени. AlphaStar сначала учило программу на записях игр людей, затем включило в «лигу AlphaStar», где ИИ играл не только против себя, но и «эксплуататорских» агентов, которые являлись версиями ИИ, специально нацеленными на слабые места AlphaStar и представлявших каждую из трёх рас[43]. Обучение гарантировало, что AlphaStar станет грозным противником всех трёх рас и каждой игровой стратегии. На момент презентации у AlphaStar были знания, эквивалентные 200 годам игрового времени.[48]. При этом разработчики пытались ограничить возможности ИИ, например ограничив число действий в минуту приравняв его к усредненному числу действий хорошего игрока (что не мешает программе показывать невозможные для людей результаты), из-за чего программа была вынуждена учиться выигрывать долгосрочной стратегией[43]. Скорость реакции около 3 кадров от появления противника в зоне видимости до ответной реакции. Уменьшило размер зоны зрения ИИ до зоны зрения игрока.

К концу октября 2019 года ИИ стал гроссмейстером игры, сумев обойти 99,8 % зарегистрированных в Starcraft II игроков-людей. На это достижение AlphaStar понадобилось 44 дня тренировок.[43].

В октябре 2015 программа для игры в го AlphaGo[49], разработанная DeepMind, победила чемпиона Европы по го Фань Хуэя (2-й дан) со счётом 5—0[2]. О новости было объявлено только 27 января 2016 года одновременно с публикацией статьи в журнале Nature[2].

Это первый в истории случай, когда ИИ выиграл в го у профессионала[50], до AlphaGo все известные ИИ играли в го только на любительском уровне. Го считается игрой, в которую компьютеру выиграть достаточно тяжело (в сравнении с аналогичными играми, например, c шахматами) в виду большого количества вариантов ходов, из-за этого традиционный для ИИ метод перебора ходов практически неприменим[2][51]. В марте 2016 года программа выиграла матч у одного из сильнейших гоистов мира Ли Седоля со счетом 4-1.

Другие направления

[править | править код]

Публикации DeepMind затрагивают следующие темы[52]: понимание естественного языка машинами[53], генерация изображений по шаблону с помощью нейронных сетей[54], распознавание речи, алгоритмы обучения нейронных сетей.

DeepMind Health — подразделение DeepMind, работающее в области искусственного интеллекта в медицине[55][56][57]. О его открытии было объявлено 24 февраля 2016 года на веб-сайте компании. Подразделение возглавляет Мустафа Сулейман.

В своей работе DeepMind Health будет сотрудничать с Национальной службой здравоохранения Великобритании. DeepMind Health планирует предоставлять врачам техническую экспертизу для разработки и совершенствования технологий по уходу за пациентами. Особое внимание будет уделяться безопасности данных пациентов и конфиденциальности. Деятельность подразделения будет проверяться советом из независимых экспертов, в число которых входит Ричард Хортон[англ.], редактор авторитетного журнала по медицине The Lancet.

В настоящее время DeepMind Health работает над созданием электронных инструментов, упрощающих работу врача. Было представлено приложение для смартфона, позволяющее более точно диагностировать острую почечную недостаточность. Также DeepMind купил медицинское приложение, таск-менеджер для врачей. Команда врачей из Имперского колледжа Лондона, создавшая его, присоединяется к DeepMind Health. Сумма сделки не разглашается.

В декабре 2020 года команда DeepMind объявила о решении фундаментальной научной проблемы предсказания структуры белка. Программа, разработанная компанией и основанная на нейросетях, смогла предсказывать структуру белка с 90% точностью (что лучше современных методов сканирования). Это позволяет строить 3-мерные модели белков по кодирующей геномной последовательности, что имеет большое значение для разработки новых лекарств и понимания процессов биохимии в целом.[58]

Сотрудничество с университетами

[править | править код]

В 2014 году DeepMind начинает сотрудничество с Оксфордским университетом[59][60]. DeepMind нанимает две передовые команды из Оксфорда, работающих в области искусственного интеллекта. Это команда ведущих экспертов мира по применению глубинного обучения в области понимания естественного языка машинами: профессора Нандо Де Фрейтас и Фил Блансом, доктора Эдвард Грефенстетт и Карл Мориц. И команда одних из ведущих экспертов мира в области машинного зрения: доктора Карэн Симоньян и Макс Яденберг, профессор Эндрю Зиссерман. В рамках сотрудничества факультет компьютерных наук и факультет инженерных наук получат существенное финансирование от Google. Также DeepMind планирует программу студенческих стажировок, чтение лекций и проведение семинаров для студентов.

С DeepMind работают учёные и из других университетов. Дэвид Сильвер, соавтор статьи о AlphaGo[61] и еще многих публикаций DeepMind об обучении с подкреплением, читает лекции в Университетском Колледже Лондона[62]. Некоторые публикации DeepMind написаны в соавторстве с учёными из следующих организаций[52]: Торонтский университет, Монреальский университет, Австралийский национальный университет, Амстердамский университет, Калифорнийский университет в Беркли, INRIA.

Примечания

[править | править код]
  1. DeepMind exec Andrew Eland leaves to launch startup. Дата обращения: 6 февраля 2020. Архивировано 30 декабря 2019 года.
  2. 1 2 3 4 Google achieves AI 'breakthrough' by beating Go champion - BBC News (англ.). BBC News. Дата обращения: 8 февраля 2016. Архивировано 30 января 2016 года.
  3. 1 2 The Physics arXiv Blog. The Last AI Breakthrough DeepMind Made Before Google Bought It For $400m: The end is nigh. Humans have lost another key battle in the war against computer domination. Medium (29 января 2014). Дата обращения: 8 февраля 2016. Архивировано 1 мая 2019 года.
  4. Алгоритм DeepMind предсказал структуру белка по аминокислотной последовательности Архивная копия от 5 декабря 2020 на Wayback Machine, nplus1.ru, 1 декабря 2020 года.
  5. Discovering novel algorithms with AlphaTensor (англ.). www.deepmind.com. Дата обращения: 6 октября 2022. Архивировано 5 октября 2022 года.
  6. Alhussein Fawzi, Matej Balog, Aja Huang, Thomas Hubert, Bernardino Romera-Paredes. Discovering faster matrix multiplication algorithms with reinforcement learning (англ.) // Nature. — 2022-10. — Vol. 610, iss. 7930. — P. 47–53. — ISSN 1476-4687. — doi:10.1038/s41586-022-05172-4. Архивировано 6 октября 2022 года.
  7. 1 2 Google объединит Brain и DeepMind в одну команду (англ.). ForkLog (21 апреля 2023). Дата обращения: 21 апреля 2023. Архивировано 21 апреля 2023 года.
  8. Amy Thomson. Google Buys U.K. Artificial Intelligence Company DeepMind. Bloomberg.com. Дата обращения: 8 февраля 2016. Архивировано 7 марта 2016 года.
  9. Gibbs, Samuel (2014-01-28). "Demis Hassabis: 15 facts about the DeepMind Technologies founder". The Guardian (англ.). Архивировано 16 августа 2015. Дата обращения: 8 февраля 2016.
  10. Davies, Sally (2014-01-27). "DeepMind buy heralds rise of the machines". Financial Times. Архивировано 12 марта 2016. Дата обращения: 8 февраля 2016.
  11. "DeepMind Technologies Investors". Дата обращения: 8 февраля 2016. Архивировано 17 марта 2015 года.
  12. Elon Musk: Artificial Intelligence 'Potentially More Dangerous Than Nukes'. International Business Times UK. Дата обращения: 8 февраля 2016. Архивировано 3 февраля 2016 года.
  13. Exclusive: Google to Buy Artificial Intelligence Startup DeepMind for $400M. Re/code. Дата обращения: 8 февраля 2016. Архивировано 27 января 2016 года.
  14. Computer Laboratory: Hall of Fame Awards. www.cl.cam.ac.uk. Дата обращения: 8 февраля 2016. Архивировано 3 февраля 2016 года.
  15. "Google to buy artificial intelligence company DeepMind". Reuters. 2014-01-27. Архивировано 11 марта 2016. Дата обращения: 8 февраля 2016.
  16. Computers, gaming // The Economist. — ISSN 0013-0613. Архивировано 14 января 2018 года.
  17. Catherine Shu. Google Acquires Artificial Intelligence Startup DeepMind For More Than $500M. TechCrunch. Дата обращения: 8 февраля 2016. Архивировано 28 января 2014 года.
  18. "Google to buy artificial intelligence company DeepMind". Reuters. 2014-01-27. Архивировано 27 января 2014. Дата обращения: 8 февраля 2016.
  19. Gibbs, Samuel (2014-01-27). "Google buys UK artificial intelligence startup Deepmind for £400m". The Guardian (англ.). Архивировано 3 февраля 2014. Дата обращения: 8 февраля 2016.
  20. Google Beat Facebook for DeepMind, Creates Ethics Board. The Information. Дата обращения: 8 февраля 2016. Архивировано 31 января 2014 года.
  21. Inside Google's Mysterious Ethics Board. Forbes. Дата обращения: 8 февраля 2016. Архивировано 4 марта 2016 года.
  22. 1 2 Google DeepMind. deepmind.com. Дата обращения: 8 февраля 2016. Архивировано 13 октября 2014 года.
  23. Legg, Shane; Veness, Joel (29 September 2011). "An Approximation of the Universal Intelligence Measure". Дата обращения: 8 февраля 2016. Архивировано 11 июня 2016 года.
  24. Hassabis, Demis (23 February 2012). "Model the brain's algorithms". Дата обращения: 8 февраля 2016. Архивировано 4 марта 2016 года.
  25. 1 2 3 Royal Television Society. Public Lecture with Google DeepMind's Demis Hassabis (19 ноября 2015). Дата обращения: 8 февраля 2016. Архивировано 2 февраля 2016 года.
  26. Q&A with Shane Legg on risks from AI - Less Wrong. lesswrong.com. Дата обращения: 8 февраля 2016. Архивировано 24 октября 2014 года.
  27. "DeepMind AI’s new trick is playing ‘Quake III Arena’ like a human" Архивная копия от 5 июля 2018 на Wayback Machine Engadget, March 7, 2018
  28. Искусственный интеллект научился «по-человечески» играть в Quake III Arena. Дата обращения: 15 июля 2018. Архивировано 15 июля 2018 года.
  29. Alex Graves, Greg Wayne, Ivo Danihelka. Neural Turing Machines // arXiv:1410.5401 [cs]. — 2014-10-20. Архивировано 13 января 2016 года.
  30. Best of 2014: Google's Secretive DeepMind Startup Unveils a "Neural Turing Machine". MIT Technology Review. Дата обращения: 8 февраля 2016. Архивировано 2 апреля 2017 года.
  31. 1 2 DQN | Google DeepMind. deepmind.com. Дата обращения: 10 февраля 2016. Архивировано из оригинала 9 февраля 2016 года.
  32. Volodymyr Mnih, Koray Kavukcuoglu, David Silver, Andrei A. Rusu, Joel Veness. Human-level control through deep reinforcement learning (англ.) // Nature. — 2015-02-26. — Vol. 518, iss. 7540. — P. 529–533. — ISSN 0028-0836. — doi:10.1038/nature14236. Архивировано 25 сентября 2017 года.
  33. 1 2 Volodymyr Mnih, Koray Kavukcuoglu, David Silver, Alex Graves, Ioannis Antonoglou. Playing Atari with Deep Reinforcement Learning // arXiv:1312.5602 [cs]. — 2013-12-19. Архивировано 13 февраля 2016 года.
  34. From Pixels to Actions: Human-level control through Deep Reinforcement Learning (англ.). Research Blog. Дата обращения: 8 февраля 2016. Архивировано 5 февраля 2016 года.
  35. DeepMind's AI is an Atari gaming pro now (Wired UK). Wired UK. Дата обращения: 8 февраля 2016. Архивировано 21 мая 2016 года.
  36. Volodymyr Mnih, Adrià Puigdomènech Badia, Mehdi Mirza, Alex Graves, Timothy P. Lillicrap. Asynchronous Methods for Deep Reinforcement Learning // arXiv:1602.01783 [cs]. — 2016-02-04. Архивировано 18 февраля 2016 года.
  37. Jacob Aron. Google DeepMind AI navigates a Doom-like 3D maze just by looking (англ.). New Scientist. Дата обращения: 14 февраля 2016. Архивировано 6 февраля 2016 года.
  38. DeepMind. Asynchronous Methods for Deep Reinforcement Learning: TORCS (4 февраля 2016). Дата обращения: 14 февраля 2016. Архивировано 14 февраля 2016 года.
  39. DeepMind. Asynchronous Methods for Deep Reinforcement Learning: Labyrinth (4 февраля 2016). Дата обращения: 14 февраля 2016. Архивировано 14 февраля 2016 года.
  40. DeepMind. Asynchronous Methods for Deep Reinforcement Learning: MuJoCo (4 февраля 2016). Дата обращения: 14 февраля 2016. Архивировано 4 декабря 2016 года.
  41. DeepMind and Blizzard to release StarCraft II as an AI research environment | DeepMind. DeepMind. Дата обращения: 11 ноября 2016. Архивировано 5 августа 2019 года.
  42. BlizzCon: DeepMind и самообучающийся ИИ в StarCraft II. StarCraft II. Дата обращения: 11 ноября 2016. Архивировано 10 ноября 2016 года.
  43. 1 2 3 4 Sample, Ian (2019-10-30). "AI becomes grandmaster in 'fiendishly complex' StarCraft II". Guardian. Архивировано 29 декабря 2020. Дата обращения: 31 октября 2019.
  44. StarCraft II API -- Technical Design - StarCraft II Forums. us.battle.net. Дата обращения: 11 ноября 2016. Архивировано 10 ноября 2016 года.
  45. AlphaStar: Mastering the Real-Time Strategy Game StarCraft II | DeepMind. DeepMind. Дата обращения: 24 января 2019. Архивировано 24 января 2019 года.
  46. Нейросеть AlphaStar одолела профессиональных игроков в StarCraft II. Дата обращения: 25 января 2019. Архивировано 11 декабря 2019 года.
  47. AlphaStar — новая система искусственного интеллекта для StarCraft II от DeepMind (полный перевод). Дата обращения: 25 января 2019. Архивировано 26 января 2019 года.
  48. Ryan Whitwam. DeepMind AI Challenges Pro StarCraft II Players, Wins Almost Every Match - ExtremeTech. ExtremeTech (24 января 2019). Дата обращения: 8 февраля 2019. Архивировано 5 февраля 2019 года.
  49. AlphaGo | Google DeepMind. deepmind.com. Дата обращения: 10 февраля 2016. Архивировано из оригинала 25 февраля 2016 года.
  50. Tual, David Larousserie et Morgane. "Première défaite d'un professionnel du go contre une intelligence artificielle". Le Monde.fr (фр.). Архивировано 29 января 2016. Дата обращения: 8 февраля 2016.
  51. AlphaGo: Mastering the ancient game of Go with Machine Learning. Research Blog. Дата обращения: 8 февраля 2016. Архивировано 1 февраля 2016 года.
  52. 1 2 Publications | Google DeepMind. deepmind.com. Дата обращения: 10 февраля 2016. Архивировано из оригинала 7 февраля 2016 года.
  53. Karl Moritz Hermann, Tomáš Kočiský, Edward Grefenstette, Lasse Espeholt, Will Kay. Teaching Machines to Read and Comprehend // arXiv:1506.03340 [cs]. — 2015-06-10. Архивировано 19 февраля 2016 года.
  54. Ivo Danihelka. DRAW: A Recurrent Neural Network For Image Generation by Google DeepMind (17 сентября 2015). Дата обращения: 10 февраля 2016. Архивировано 21 июля 2017 года.
  55. Health | Google DeepMind. deepmind.com. Дата обращения: 27 февраля 2016. Архивировано 27 февраля 2016 года.
  56. Francisco, Sarah Boseley Paul Lewis in San (2016-02-24). "Smart care: how Google DeepMind is working with NHS hospitals". The Guardian (англ.). Архивировано 27 февраля 2016. Дата обращения: 27 февраля 2016.
  57. Jack Clark. Google's DeepMind Forms Health Unit to Build Medical Software. Bloomberg.com. Дата обращения: 27 февраля 2016. Архивировано 27 февраля 2016 года.
  58. Фундаментальная «проблема белка» решена. Ученые бились над ней полвека, а помогли им в итоге программисты Google — и это может быть очень важно для медицины Архивная копия от 13 декабря 2020 на Wayback Machine, meduza.io, 13 декабря 2020 года.
  59. Teaming up with Oxford University on Artificial Intelligence (англ.). Google Europe Blog. Дата обращения: 10 февраля 2016. Архивировано 22 февраля 2016 года.
  60. University of Oxford teams up with Google DeepMind on artificial intelligence. Department of Computer Science. Дата обращения: 10 февраля 2016. Архивировано 5 февраля 2016 года.
  61. David Silver, Aja Huang, Chris J. Maddison, Arthur Guez, Laurent Sifre. Mastering the game of Go with deep neural networks and tree search (англ.) // Nature. — 2016-01-28. — Vol. 529, iss. 7587. — P. 484–489. — ISSN 0028-0836. — doi:10.1038/nature16961. Архивировано 24 сентября 2019 года.
  62. David Silver. www0.cs.ucl.ac.uk. Дата обращения: 10 февраля 2016. Архивировано 20 февраля 2016 года.