Google выпустил генеративный путь обучения ИИ, включающий 8 курсов и 2 теста, охватывающих все: от технических принципов, методов реализации, сценариев приложений до разработки и развертывания.Некоторые курсы находятся в Google Cloud, но содержание и структура очень хороши, полностью бесплатно.


8 курсов представлены и связаны следующим образом:
Примечание от Xiaopang: Если вы не знаете, что изучать, вы можете прочитать введение.Если у вас чешутся руки, вы можете перейти непосредственно к #4 5 #8, чтобы выполнить три практических проекта: создание текста из текста, создание текста из текста и создание текста из изображений.
1. Что такое генеративный ИИ, каковы его приложения и чем он отличается от традиционного машинного обучения.
[Выполните цель грамотности после обучения]
2. Что такое большая языковая модель (LLM), сценарии применения большой языковой модели и как подсказка слов () и тонкая настройка (тонкая настройка) могут улучшить производительность модели.
[Более 90% китайских друзей в Твиттере после изучения]
3. Что такое ответственный ИИ (Responsible AI), почему важно, чтобы модели ИИ были безопасными, надежными и этичными, и как создать продукт, использующий ответственный ИИ.
[Практической ценности особой нет. После обучения можно хвастаться за винным столом, но противно будет. 】
4. Diffusion Models теория модели генерации изображений, методы обучения модели и способы развертывания модели в облаке (начало приносить пользу!).
[После обучения вы можете узнать, как манипулируют этими стартапами по созданию изображений]
5. Принципы архитектуры модели кодер-декодер, широко используемые в таких задачах, как машинный перевод и распознавание речи, и как построить ИИ для генерации стихов с помощью этой архитектуры в TensorFlow.
[На самом деле, большинство стартапов по генерации текстов не используют эту обложку... для них это слишком сложно... но вы можете заранее построить свои собственные строительные блоки и как прикрыть свой бизнес]
6. Как механизм внимания в нейронной сети распределяет вычислительные ресурсы для более важных задач в условиях ограниченной вычислительной мощности и повышает производительность перевода, реферирования, ответов на вопросы и т. д.
[Большинство венчурных капиталистов и предпринимателей с нетехническим образованием не могут достичь этого уровня, в настоящее время хвастовство не так легко сломить]
7. Основные принципы технологии предварительного обучения BERT (двунаправленные представления кодировщика от преобразователей) в обработке естественного языка и то, как она может заставить ИИ значительно улучшить способность понимать неразмеченный текст в контексте во многих различных задачах.
[С научной точки зрения... это действительно круто... но похоже, что Google хвастается своими технологиями...]
8. Научитесь понимать изображения и обозначать их, а также научитесь создавать модель искусственного интеллекта, которая смотрит на картинки, говорит и понимает картинки.
【Сложно и весело! Я еще не видел много приложений в этой области]
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить