【Udemy中英字幕】Transformers in Computer Vision – English version
最近更新 2023年04月04日
资源编号 41604

【Udemy中英字幕】Transformers in Computer Vision – English version

2023-04-04 IT与软件 0 700
郑重承诺丨视频 中英文字幕 配套课件
增值服务:免费提供代找课服务:
¥ 39.9 金币
VIP折扣
    折扣详情
  • 体验会员

    免费

  • 包月会员

    免费

  • 包年会员

    免费

  • 永久会员

    免费

开通VIP尊享优惠特权
立即下载 升级会员
微信扫码咨询 微信扫码咨询
进入TA的商铺 联系官方客服
信息属性
详情介绍

计算机视觉中的变形金刚 – 英文版

计算机视觉中的变形金刚 – 英文版

讲师:Coursat.ai Dr. Ahmad ElSallab

双语IT资源独家Udemy付费课程独家中英文字幕配套资料齐全!

不到1/10的价格,即可享受同样的高品质课程,且可以完全拥有,随时随地都可以任意观看和分享。

你会学到什么

  • 什么是变压器网络?
  • 图像分类、语义分割、对象检测和视频处理等 CV 应用程序的最先进架构
  • ViT、DETR、SWIN 等 SoTA 架构在 Huggingface 视觉转换器中的实际应用
  • 注意力机制作为一般的深度学习思想
  • 归纳偏差和 DL 模型在建模假设方面的前景
  • Transformers 在 NLP 和机器翻译中的应用
  • 计算机视觉中的变形金刚
  • 计算机视觉中不同类型的注意力

要求

  • 实用机器学习课程
  • 实用计算机视觉课程(ConvNets)
  • NLP课程简介

描述

Transformer Networks 是当今深度学习的新趋势。自 2017 年以来,Transformer 模型席卷了 NLP 的世界。从那时起,它们成为几乎所有 NLP 任务中的主流模型。CV 中的变形金刚仍然落后,但自 2020 年以来它们开始接管。

我们将从介绍注意力和变压器网络开始。由于转换器首先在 NLP 中引入,因此首先使用一些 NLP 示例更容易描述它们。从那里,我们将了解这种架构的优缺点。此外,我们将讨论无监督或半监督预训练对 transformer 架构的重要性,简要讨论大规模语言模型 (LLM),如 BERT 和 GPT。

这将为在 CV 中引入变压器铺平道路。在这里,我们将尝试将注意力的想法扩展到图像的二维空间域中。我们将讨论如何在编码器-解码器元架构中使用自注意力来泛化卷积。我们将看到这种通用架构在图像中如何与在文本和 NLP 中几乎相同,这使得 transformers 成为通用函数逼近器。我们将讨论通道和空间注意力、局部注意力与全局注意力等主题。

在接下来的三个模块中,我们将讨论解决 CV 中大问题的具体网络:分类、对象检测和分割。我们将讨论来自 Google 的 Vision Transformer (ViT)、来自 Microsoft 的 Shifter Window Transformer (SWIN)、来自 Facebook research 的 Detection Transformer (DETR)、Segmentation Transformer (SETR) 等等。然后我们将讨论 Transformers 在视频处理中的应用,通过时空 Transformers 应用于移动物体检测,以及多任务学习设置。

最后,我们将展示如何使用流水线接口使用著名的 Huggingface 库在实践中轻松应用这些预训练架构。

本课程适合谁:

  • 中级到高级 CV 工程师
  • 中级到高级 CV 研究人员
请注意:
如果你有能力,请务必支持课程的原创作者,这是他们应得的报酬!
本站收取的费用,仅用来维持网站正常运行的必要支出,从本站下载任何内容,说明你已经知晓并同意此条款。

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务