Користувач:SemenetsMF42/Google Brain

Матеріал з Вікіпедії — вільної енциклопедії.
Перейти до навігації Перейти до пошуку

Покращення зображень

[ред. | ред. код]

У лютому 2017 року Google Brain визначив імовірнісний метод для перетворення зображень з роздільною здатністю 8x8 в роздільну здатність 32x32.[1][2] Метод заснований на імовірнісній моделі, що вже існує, яка називається pixelCNN, для генерування трансльованих пікселів.[3][4]

Запропоноване програмне забезпечення використовує дві нейронні мережі для апроксимації піксельного складу зображень, які транслюються.[2][5] Перша мережа, відома як «мережа кондиціонування», зменшує розміри зображень з високою роздільною здатністю до 8x8 і намагається створити відображення з оригінального зображення 8x8 до цих зображень з вищою роздільною здатністю.[2] Інша мережа, відома як «перша мережа», використовує відображення з попередньої мережі, щоб додати більше деталей до вихідного зображення.[2] Отримане трансльоване зображення — це не те саме зображення у вищій роздільній здатності, а скоріше оцінка з роздільною здатністю 32x32, зроблена на основі інших існуючих зображень із високою роздільною здатністю.[2] Результати Google Brain вказують на можливість нейронних мереж покращувати зображення.[6]

Google Перекладач

[ред. | ред. код]

Команда Google Brain внесла свій внесок у проект Google Translate, використавши нову систему глибокого навчання, яка поєднує штучні нейронні мережі з величезними базами даних багатомовних текстів.[7] У вересні 2016 року було запущено Google Neural Machine Translation (GNMT), наскрізну систему навчання, яка може вчитися на великій кількості прикладів.[7] Раніше підхід Google Translate на основі фразового машинного перекладу (PBMT) статистично аналізував слово за словом і намагався знайти відповідні слова іншими мовами, не враховуючи навколишні фрази в реченні.[8] Але замість того, щоб вибирати заміну для кожного окремого слова бажаною мовою, GNMT оцінює сегменти слів у контексті решти речення, щоб вибрати більш точні заміни.[9] У порівнянні зі старішими моделями PBMT, модель GNMT набрала 24 % покращення схожості з перекладом, який зробила людина, при цьому кількість помилок зменшилася на 60 %.[9][7] GNMT також продемонстрував значне покращення для свідомо складних перекладів, таких як переклад китайської мови на англійську.[7]

Хоча запровадження GNMT підвищило якість перекладів Google Translate для пілотних мов, було дуже важко створити такі покращення для всіх його 103 мов. Вирішуючи цю проблему, команда Google Brain Team змогла розробити багатомовну систему GNMT, яка розширила попередню, забезпечивши переклади між кількома мовами. Крім того, вона дозволяє здійснювати переклади Zero-Shot, що є перекладами між двома мовами, які система ніколи раніше явно не бачила.[10] Google оголосила, що Google Translate тепер також може перекладати без транскрибування, використовуючи нейронні мережі. Це означає, що можливо перекласти мовлення однією мовою безпосередньо в текст іншою мовою, попередньо не транскрибуючи її в текст. За словами дослідників Google Brain, цього проміжного кроку можна уникнути за допомогою нейронних мереж. Щоб система засвоїла це, вони ознайомили її з багатогодинним аудіо іспанською мовою разом із відповідним англійським текстом. Різні шари нейронних мереж, що копіюють людський мозок, змогли зв'язати відповідні частини і згодом маніпулювати звуковою формою, поки вона не була перетворена в англійський текст.[11] Іншим недоліком моделі GNMT є те, що час перекладу збільшується в геометричній прогресії разом із кількістю слів у реченні.[9] Це змусило команду Google Brain Team додати ще 2000 процесорів, щоб гарантувати, що новий процес перекладу буде швидким і надійним.[8]

Робототехніка

[ред. | ред. код]

Прагнучи покращити традиційні алгоритми керування робототехнікою, де нові навички робота потрібно програмувати вручну, дослідники з робототехніки з Google Brain розробляють методи машинного навчання, які б дозволили роботам опановувати нові навички самостійно.[12] Вони також намагаються розробити способи обміну інформацією між роботами, щоб роботи могли вчитися один у одного під час процесу навчання, також відомого як хмарна робототехніка.[13] Як результат, Google запустила платформу Google Cloud Robotics Platform для розробників у 2019 році, намагаючись об'єднати робототехніку, AI та хмару, щоб забезпечити ефективну автоматизацію роботи через підключених до хмари роботів, які співпрацюють один з одним.[13]

Робототехнічні дослідження в Google Brain зосереджені здебільшого на вдосконаленні та застосуванні алгоритмів глибокого навчання, які б дозволили роботам виконувати завдання, навчаючись за допомогою власного досвіду, моделювання, людських демонстрацій та/або візуальних уявлень.[14][15][16][17] Наприклад, дослідники Google Brain показали, що роботи можуть навчитися підіймати та кидати тверді об'єкти у ящики, не бувши попередньо запрограмованим на це, за допомогою експериментування в середовищі.[14] В іншому проекті дослідники натренували роботів вчитися таким процесам, як виливання рідини з чашки; Роботи навчилися за допомогою відео демонстрацій людей, записаних з різних точок зору.[16]

Дослідники Google Brain співпрацюють з іншими компаніями та академічними установами, що досліджують робототехніку. У 2016 році команда Google Brain Team співпрацювала з дослідниками з X у дослідженні з вивчення координації рук і очей для роботизованого хапання.[18] Їх метод дозволив керувати роботом у реальному часі для хапання нових об'єктів із самокоригуванням.[18] У 2020 році дослідники з Google Brain, Intel AI Lab і UC Berkeley створили модель штучного інтелекту для роботів для вивчання пов'язаних із хірургією завдань, таких як накладання швів, за допомогою відео справжніх операцій.[17]

Інтерактивне розпізнавання мовця за допомогою навчання з підкріпленням

[ред. | ред. код]

У 2020 році команда Google Brain Team та Університет Лілля представили модель автоматичного розпізнавання мовця, яку вони назвали Interactive Speaker Recognition. Модуль ISR розпізнає мовця з заданого списку мовців, лише запитуючи декілька слів, специфічних для користувача.[19] Модель можна змінити, щоб була можливість вибрати сегменти мовлення в контексті навчання синтезу мовлення.[19]

TensorFlow

[ред. | ред. код]

TensorFlow — це бібліотека програмного забезпечення з відкритим вихідним кодом на базі Google Brain, яка дозволяє будь-кому використовувати машинне навчання, надаючи інструменти для тренування власної нейронної мережі.[20] Цей інструмент використовувався фермерами для зменшення кількості ручної праці, необхідної для сортування врожаю, шляхом навчання його набором даних відсортованих людьми зображень.[20]

Magenta — це проект, який використовує Google Brain для створення нової інформації у вигляді мистецтва та музики, а не для класифікації та сортування наявних даних.[9] TensorFlow було оновлено набором інструментів для користувачів, за допомогою яких вони можуть вчити нейронну мережу створенню зображень і музики.[9] Однак команда з Університету Валдоста виявила, що ШІ не може досконало відтворювати людські наміри в мистецтві, подібно до проблем, з якими він стикається у перекладі.[9]

Застосування у медицині

[ред. | ред. код]

Можливості сортування зображень Google Brain використовуються, щоб допомогти виявити певні медичні захворювання шляхом пошуку патернів, які лікарі можуть не помітити, щоб поставити діагноз раніше.[9] Під час скринінгу на рак молочної залози було виявлено, що цей метод на 75 % рідше ставить невірний позитивний діагноз, ніж лікарі-людини, яким потрібно більше часу, щоб переглянути кожну фотографію.[9] Через дуже специфічну підготовку нейронної мережі для виконання одного завдання, вона не може визначити інші недуги, присутні на фотографії, які людина може легко помітити.[9]

Інші продукти Google

[ред. | ред. код]

Технологія проектів Google Brain наразі використовується в інших продуктах Google, таких як система розпізнавання мовлення операційної системи Android, пошук фотографій у Google Photos, розумна відповідь у Gmail та рекомендації відео на YouTube.[21][22][23]

Прийом

[ред. | ред. код]

Google Brain отримав висвітлення в Wired Magazine,[24][25][26] National Public Radio,[27] і Big Think.[28] Ці статті містили інтерв'ю з ключовими членами команди Реєм Курцвейлом та Ендрю Ином і зосереджені на поясненнях цілей та застосуваннях проекту.[24][27][28]

Дискусія

[ред. | ред. код]

У грудні 2020 року спеціалістка з питань етики ШI Тімніт Гебру залишила Google.[29] Причиною звільнення стала її відмова відкликати статтю під назвою «Про небезпеку стохастичних папуг: чи можуть мовні моделі бути занадто великими?»[29] У цій статті досліджуються потенційні ризики розвитку штучного інтелекту, такого як Google Brain, зокрема їхній вплив на навколишнє середовище, упередження в навчальних даних та здатність обманювати громадськість.[29][30] З проханням відкликати статтю звернулася Меган Качолія, віцепрезидент Google Brain.[31] Станом на квітень 2021 року майже 7000 нинішніх або колишніх співробітників Google і прихильників галузі підписали відкритий лист, в якому звинувачують Google у «цензурі досліджень» та засуджують поводження з компанії з Гебру.[32]

У лютому 2021 року Google звільнив Маргарет Мітчелл, одну з керівників команди з етики в галузі штучного інтелекту.[31] У заяві компанії стверджується, що Мітчелл порушила політику компанії, використовуючи автоматизовані інструменти для пошуку підтримки для Gebru.[31] У тому ж місяці інженери поза командою з етики почали звільнятися, посилаючись на «неправомірне» звільнення Gebru як причину.[33] У квітні 2021 року співзасновник Google Brain Семі Бенджіо оголосив про свою відставку з компанії.[34] Попри те, що він був менеджером Гебру, Бенджіо не був повідомлений про її звільнення, і він опублікував пост в Інтернеті на підтримку і неї, і Мітчелл.[34] Хоча пост Бенджіо зосереджувалося на особистісному зростанні як причині його відходу, анонімні джерела вказали Reuters, що негаразди в команді з етики ШІ зіграли певну роль у його міркуваннях.[34] [[Категорія:Google]] [[Категорія:Прикладне машинне навчання]]

  1. Dahl, Ryan; Norouzi, Mohammad; Shlens, Jonathon (2017). Pixel Recursive Super Resolution. arXiv:1702.00783. Bibcode:2017arXiv170200783D.
  2. а б в г д Google Brain super-resolution image tech makes "zoom, enhance!" real. arstechnica.co.uk. 7 лютого 2017. Процитовано 15 травня 2017.
  3. Bulat, Adrian; Yang, Jing; Tzimiropoulos, Georgios (2018), To Learn Image Super-Resolution, Use a GAN to Learn How to Do Image Degradation First, Computer Vision – ECCV 2018, Cham: Springer International Publishing: 187—202, arXiv:1807.11458, doi:10.1007/978-3-030-01231-1_12, ISBN 978-3-030-01230-4, процитовано 9 квітня 2021
  4. Oord, Aaron Van; Kalchbrenner, Nal; Kavukcuoglu, Koray (11 червня 2016). Pixel Recurrent Neural Networks. International Conference on Machine Learning (англ.). PMLR: 1747—1756. arXiv:1601.06759.
  5. Google uses AI to sharpen low-res images. engadget.com. Процитовано 15 травня 2017.
  6. Google just made 'zoom and enhance' a reality -- kinda. cnet.com. Процитовано 15 травня 2017.
  7. а б в г Castelvecchi, Davide (2016). Deep learning boosts Google Translate tool. Nature News (англ.). doi:10.1038/nature.2016.20696.
  8. а б Lewis-Kraus, Gideon (14 грудня 2016). The Great A.I. Awakening. The New York Times (амер.). ISSN 0362-4331. Процитовано 8 квітня 2021. Помилка цитування: Некоректний тег <ref>; назва «:1» визначена кілька разів з різним вмістом
  9. а б в г д е ж и к Helms, Mallory; Ault, Shaun V.; Mao, Guifen; Wang, Jin (9 березня 2018). An Overview of Google Brain and Its Applications. Proceedings of the 2018 International Conference on Big Data and Education. ICBDE '18. Honolulu, HI, USA: Association for Computing Machinery: 72—75. doi:10.1145/3206157.3206175. ISBN 978-1-4503-6358-7. Помилка цитування: Некоректний тег <ref>; назва «:2» визначена кілька разів з різним вмістом
  10. Johnson, Melvin; Schuster, Mike; Le, Quoc V.; Krikun, Maxim; Wu, Yonghui; Chen, Zhifeng; Thorat, Nikhil; Viégas, Fernanda; Wattenberg, Martin (1 жовтня 2017). Google's Multilingual Neural Machine Translation System: Enabling Zero-Shot Translation. Transactions of the Association for Computational Linguistics. 5: 339—351. doi:10.1162/tacl_a_00065. ISSN 2307-387X.
  11. Reynolds, Matt. Google uses neural networks to translate without transcribing. New Scientist. Процитовано 15 May 2017.
  12. Metz, Cade; Dawson, Brian; Felling, Meg (26 березня 2019). Inside Google's Rebooted Robotics Program. The New York Times (амер.). ISSN 0362-4331. Процитовано 8 квітня 2021.
  13. а б Google Cloud Robotics Platform coming to developers in 2019. The Robot Report (амер.). 24 жовтня 2018. Процитовано 8 квітня 2021.
  14. а б Zeng, A.; Song, S.; Lee, J.; Rodriguez, A.; Funkhouser, T. (August 2020). TossingBot: Learning to Throw Arbitrary Objects With Residual Physics. IEEE Transactions on Robotics. 36 (4): 1307—1319. doi:10.1109/TRO.2020.2988642. ISSN 1941-0468.
  15. Gu, S.; Holly, E.; Lillicrap, T.; Levine, S. (May 2017). Deep reinforcement learning for robotic manipulation with asynchronous off-policy updates. 2017 IEEE International Conference on Robotics and Automation (ICRA): 3389—3396. arXiv:1610.00633. doi:10.1109/ICRA.2017.7989385. ISBN 978-1-5090-4633-1.
  16. а б Sermanet, P.; Lynch, C.; Chebotar, Y.; Hsu, J.; Jang, E.; Schaal, S.; Levine, S.; Brain, G. (May 2018). Time-Contrastive Networks: Self-Supervised Learning from Video. 2018 IEEE International Conference on Robotics and Automation (ICRA): 1134—1141. arXiv:1704.06888. doi:10.1109/ICRA.2018.8462891. ISBN 978-1-5386-3081-5.
  17. а б Tanwani, A. K.; Sermanet, P.; Yan, A.; Anand, R.; Phielipp, M.; Goldberg, K. (May 2020). Motion2Vec: Semi-Supervised Representation Learning from Surgical Videos. 2020 IEEE International Conference on Robotics and Automation (ICRA): 2174—2181. arXiv:2006.00545. doi:10.1109/ICRA40945.2020.9197324. ISBN 978-1-7281-7395-5. Помилка цитування: Некоректний тег <ref>; назва «:6» визначена кілька разів з різним вмістом
  18. а б Levine, Sergey; Pastor, Peter; Krizhevsky, Alex; Ibarz, Julian; Quillen, Deirdre (1 квітня 2018). Learning hand-eye coordination for robotic grasping with deep learning and large-scale data collection. The International Journal of Robotics Research (англ.). 37 (4–5): 421—436. doi:10.1177/0278364917710318. ISSN 0278-3649.
  19. а б Seurin, Mathieu; Strub, Florian; Preux, Philippe; Pietquin, Olivier (25 жовтня 2020). A Machine of Few Words: Interactive Speaker Recognition with Reinforcement Learning. Interspeech 2020. ISCA: ISCA: 4323—4327. arXiv:2008.03127. doi:10.21437/interspeech.2020-2892.
  20. а б Helms, Mallory; Ault, Shaun V.; Mao, Guifen; Wang, Jin (9 березня 2018). An Overview of Google Brain and Its Applications. Proceedings of the 2018 International Conference on Big Data and Education. ICBDE '18. Honolulu, HI, USA: Association for Computing Machinery: 72—75. doi:10.1145/3206157.3206175. ISBN 978-1-4503-6358-7. S2CID 44107806.
  21. How Google Retooled Android With Help From Your Brain. Wired (en-us) . ISSN 1059-1028. Процитовано 8 квітня 2021.
  22. Google Open-Sources The Machine Learning Tech Behind Google Photos Search, Smart Reply And More. TechCrunch (амер.). Процитовано 8 квітня 2021.
  23. This Is Google's Plan to Save YouTube. Time. 18 травня 2015.
  24. а б Levy, Steven (25 квітня 2013). How Ray Kurzweil Will Help Google Make the Ultimate AI Brain. Wired. Процитовано 11 лютого 2014.
  25. Wohlsen, Marcus (27 січня 2014). Google's Grand Plan to Make Your Brain Irrelevant. Wired. Процитовано 11 лютого 2014.
  26. Hernandez, Daniela (7 травня 2013). The Man Behind the Google Brain: Andrew Ng and the Quest for the New AI. Wired. Процитовано 11 лютого 2014.
  27. а б A Massive Google Network Learns To Identify — Cats. National Public Radio. 26 червня 2012. Процитовано 11 лютого 2014.
  28. а б Ray Kurzweil and the Brains Behind the Google Brain. Big Think. 8 грудня 2013. Процитовано 11 лютого 2014.
  29. а б в We read the paper that forced Timnit Gebru out of Google. Here's what it says. MIT Technology Review (англ.). Процитовано 8 квітня 2021.
  30. Bender, Emily M.; Gebru, Timnit; McMillan-Major, Angelina; Shmitchell, Shmargaret (3 березня 2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (англ.). Virtual Event Canada: ACM: 610—623. doi:10.1145/3442188.3445922. ISBN 978-1-4503-8309-7.
  31. а б в Schiffer, Zoe (19 лютого 2021). Google fires second AI ethics researcher following internal investigation. The Verge (англ.). Процитовано 8 квітня 2021. Помилка цитування: Некоректний тег <ref>; назва «:10» визначена кілька разів з різним вмістом
  32. Change, Google Walkout For Real (15 грудня 2020). Standing with Dr. Timnit Gebru — #ISupportTimnit #BelieveBlackWomen. Medium (англ.). Процитовано 8 квітня 2021.
  33. Dave, Jeffrey Dastin, Paresh (4 лютого 2021). Two Google engineers resign over firing of AI ethics researcher Timnit Gebru. Reuters (англ.). Процитовано 8 квітня 2021.
  34. а б в Dave, Jeffrey Dastin, Paresh (7 квітня 2021). Google AI scientist Bengio resigns after colleagues' firings: email. Reuters (англ.). Процитовано 8 квітня 2021.