Google випустив генеративний курс навчання штучного інтелекту, який включає 8 курсів і 2 тести, які охоплюють усе: від технічних принципів, методів реалізації, сценаріїв додатків, а також розробки й розгортання. Деякі курси проходять у Google Cloud, але зміст і структура дуже гарні, повністю безкоштовно.
8 курсів представлені та пов’язані таким чином: Примітка від Сяопана: якщо ви не знаєте, чого навчитися, ви можете прочитати вступ. Якщо у вас сверблять руки, ви можете перейти безпосередньо до #4 5 #8, щоб виконати три практичні проекти: створення тексту з тексту, створення тексту з тексту та створення тексту з зображень. 1. Що таке генеративний ШІ, які його застосування та чим він відрізняється від традиційного машинного навчання. [Виконайте мету з грамотності після вивчення] 2. Що таке велика мовна модель (LLM), сценарії застосування великої мовної моделі та як швидкі слова () і тонке налаштування (точне налаштування) можуть покращити продуктивність моделі. [Понад 90% китайських друзів у Twitter після навчання] 3. Що таке відповідальний ШІ (Responsible AI), чому важливо, щоб моделі ШІ були безпечними, надійними та етичними, і як створити продукт, який використовує відповідальний ШІ. [Практичної цінності мало, навчившись, за винним столом можна похвалитися, але буде вам гидко. 】 4. Дифузійні моделі Теорія моделі генерації зображень, методи навчання моделі та як розгорнути модель у хмарі (початок приносити користь!). [Після навчання ви зможете дізнатися, як маніпулюють цими стартапами, що створюють імідж] 5. Принципи архітектури моделі кодера-декодера, яка широко використовується в таких завданнях, як машинний переклад і розпізнавання мовлення, і як побудувати штучний інтелект для створення поезії за допомогою цієї архітектури в TensorFlow [Насправді більшість стартапів, які займаються генерацією тексту, не використовують це покриття... для них це надто складно... але ви можете заздалегідь створити власні будівельні блоки та як охопити свій бізнес] 6. Як механізм уваги в нейронній мережі розподіляє обчислювальні ресурси для більш важливих завдань за умови обмеженої обчислювальної потужності та покращує продуктивність перекладу, резюмування, відповідей на запитання тощо. [Більшість венчурних капіталовкладачів і підприємців із нетехнічним досвідом не можуть досягти цього рівня, наразі хвастощі нелегко зламати] 7. Основні принципи технології попереднього навчання BERT (Bidirectional Encoder Representations from Transformers) у обробці природної мови та як вона може змусити штучний інтелект значно покращити здатність розуміти текст без міток у контексті в багатьох різних завданнях. [Науково... це справді чудово... але складається враження, що Google хвалиться своєю власною технологією...] 8. Навчіться розуміти зображення та маркування, а також навчіться створювати модель штучного інтелекту, яка дивиться на зображення, розмовляє та розуміє зображення. 【Важко і весело! Я ще не бачив багато програм у цій сфері]
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Google випустив генеративний курс навчання штучного інтелекту, який включає 8 курсів і 2 тести, які охоплюють усе: від технічних принципів, методів реалізації, сценаріїв додатків, а також розробки й розгортання. Деякі курси проходять у Google Cloud, але зміст і структура дуже гарні, повністю безкоштовно.
8 курсів представлені та пов’язані таким чином:
Примітка від Сяопана: якщо ви не знаєте, чого навчитися, ви можете прочитати вступ. Якщо у вас сверблять руки, ви можете перейти безпосередньо до #4 5 #8, щоб виконати три практичні проекти: створення тексту з тексту, створення тексту з тексту та створення тексту з зображень.
1. Що таке генеративний ШІ, які його застосування та чим він відрізняється від традиційного машинного навчання.
[Виконайте мету з грамотності після вивчення]
2. Що таке велика мовна модель (LLM), сценарії застосування великої мовної моделі та як швидкі слова () і тонке налаштування (точне налаштування) можуть покращити продуктивність моделі.
[Понад 90% китайських друзів у Twitter після навчання]
3. Що таке відповідальний ШІ (Responsible AI), чому важливо, щоб моделі ШІ були безпечними, надійними та етичними, і як створити продукт, який використовує відповідальний ШІ.
[Практичної цінності мало, навчившись, за винним столом можна похвалитися, але буде вам гидко. 】
4. Дифузійні моделі Теорія моделі генерації зображень, методи навчання моделі та як розгорнути модель у хмарі (початок приносити користь!).
[Після навчання ви зможете дізнатися, як маніпулюють цими стартапами, що створюють імідж]
5. Принципи архітектури моделі кодера-декодера, яка широко використовується в таких завданнях, як машинний переклад і розпізнавання мовлення, і як побудувати штучний інтелект для створення поезії за допомогою цієї архітектури в TensorFlow
[Насправді більшість стартапів, які займаються генерацією тексту, не використовують це покриття... для них це надто складно... але ви можете заздалегідь створити власні будівельні блоки та як охопити свій бізнес]
6. Як механізм уваги в нейронній мережі розподіляє обчислювальні ресурси для більш важливих завдань за умови обмеженої обчислювальної потужності та покращує продуктивність перекладу, резюмування, відповідей на запитання тощо.
[Більшість венчурних капіталовкладачів і підприємців із нетехнічним досвідом не можуть досягти цього рівня, наразі хвастощі нелегко зламати]
7. Основні принципи технології попереднього навчання BERT (Bidirectional Encoder Representations from Transformers) у обробці природної мови та як вона може змусити штучний інтелект значно покращити здатність розуміти текст без міток у контексті в багатьох різних завданнях.
[Науково... це справді чудово... але складається враження, що Google хвалиться своєю власною технологією...]
8. Навчіться розуміти зображення та маркування, а також навчіться створювати модель штучного інтелекту, яка дивиться на зображення, розмовляє та розуміє зображення.
【Важко і весело! Я ще не бачив багато програм у цій сфері]