SlideShare a Scribd company logo
1 of 67
Download to read offline
山崎和博
これから始める人のための
ディープラーニング基礎講座
NVIDIA Deep Learning Solution Architect
AGENDA
ディープラーニングとは
ニューラルネットの基本構造と処理の流れ
性能改善のための考え方・テクニック
さまざまなネットワークと応用例
ディープラーニングを実装するために
ディープラーニングとは
4
様々な分野で活用されるディープラーニング
インターネットとクラウド
画像分類
音声認識
言語翻訳
言語処理
感情分析
推薦
メディアとエンターテイメント
字幕
ビデオ検索
リアルタイム翻訳
機械の自動化
歩行者検出
白線のトラッキング
信号機の認識
セキュリティと防衛
顔検出
ビデオ監視
衛星画像
医学と生物学
癌細胞の検出
糖尿病のランク付け
創薬
ディープラーニングは機械学習の一分野
5
人工知能(AI)
ディープラーニング
(深層学習)
マシンラーニング
(機械学習)
ディープラーニングの歴史
機械学習の一手法として
6
2012:画像認識コンペでの圧勝
2011:音声認識コンペでの圧勝
2006:事前学習と
autoencoderによる
多層ネットワークの学習
1992~:非線形
SVM等の流行
1989:畳み込み
ニューラルネットワークの提案
1986:誤差逆伝播法の提案
1980:ネオコグニトロンの提案
1969:(単純)パーセプトロンの
限界が明らかになる
1958:パーセプトロンの発表
1940~50年代:
人工知能の提唱
第一次ブーム: ~1970 第二次ブーム: ~1990 第三次ブーム: ~20??
ディープラーニングとは
多数の層から構成されるニューラルネットワーク
7
入力層 出力層
隠れ層
十分なトレーニングデータを与え学習させることで
複雑な問題を解くことができるようになる
ディープラーニングを加速する3つの要因
8
“Google’s AI engine also reflects how the world of computer hardware is changing.
(It) depends on machines equipped with GPUs… And it depends on these chips more
than the larger tech universe realizes.”
DNN GPUBIG DATA
ニューラルネットワークの基本と処理の流れ
人工ニューラルネットワーク
人工ニューロンを基本単位とするネットワーク構造
10
w1 w2 w3
x1 x2 x3
y
y=w1x1+w2x2+w3x3
人工ニューロン(パーセプトロン)
人工ニューラルネットワーク
人工ニューロンを
たくさんの層として並べる
各層にそれぞれ
重みパラメータを持つ
人工ニューラルネットワーク
活性化関数
11
w1
w2
w3
x1
x2
x3
y=w1x1+w2x2+w3x3
人工ニューロン(パーセプトロン)
y F
z=F(y)
F: activation function
活性化関数
(activation function)
z 次の層
tanh
ReLU
sigmoid
人工ニューラルネットワーク
基本構造のまとめ
12
各ノードは
入力された値を合計して出力
各ユニット(ノードとも)の出力は、
各層の重みと積算され次の層へ
活性化関数による変換
ディープラーニングの2つのフェーズ
13
モデル
犬
推論(inference):
蜜穴熊
学習(training):
モデル
犬
狸
猫
フィードバックにより
重みを調整
学習した結果を用いる
犬
猫
ディープラーニングの学習フロー
14
トレーニングデータ
出力
“dog”
“cat”
“human”
“tiger”
正解ラベル
“cat”
“dog”
“monkey”
“lion”
1.入力されたデータに
したがい結果を出力
誤差
2.期待結果との違い
を誤差として計算
4.誤差が小さくなる
まで繰り返す
3.誤差を用いて
ネットワークを更新
ディープラーニングの学習フロー
15
トレーニングデータ
1.入力されたデータに
したがい結果を出力
4.誤差が小さくなる
まで繰り返す
3.誤差を用いて
ネットワークを更新
出力
“dog”
“cat”
“human”
“tiger”
正解ラベル
“cat”
“dog”
“monkey”
“lion”誤差
2.期待結果との違い
を誤差として計算
誤差の計算
16
出力
“tiger”
出力
“tiger” 80%
“lion” 20%
“tiger”
“lion”
誤差
期待結果との差などを
誤差として計算
出力
80%
20%
正解ラベル
0%
100%
トレーニングデータ
ディープラーニングの学習フロー
17
トレーニングデータ
1.入力されたデータに
したがい結果を出力
4.誤差が小さくなる
まで繰り返す
2.期待結果との違い
を誤差として計算
出力
“dog”
“cat”
“human”
“tiger”
正解ラベル
“cat”
“dog”
“monkey”
“lion”誤差
3.誤差を用いて
ネットワークを更新
重み更新
勾配法による更新
18重み w
誤差 E
最適解 現在値
誤差を最小化する
重みが最適解
ニューラルネットワークの
内部状態(=重み)に応じて
誤差は変動
重み更新
勾配法による更新
19重み w
誤差 E
最適解
傾きが正(=右上がり)
なら値を減少させる
傾きが負(=右下がり)
なら値を増加させる
wn wm
重み更新
勾配法による更新
20重み w
誤差 E
最適解
傾きが正(=右上がり)
なら値を減少させる
傾きが負(=右下がり)
なら値を増加させる
wn wm
傾き(=勾配ベクトル)により
重みを逐次更新
重み更新
勾配法による更新
21重み w
誤差 E
wnwn+1
wn+2
最適解
(ゴール)
少しずつ更新
ディープラーニングの学習フロー
22
トレーニングデータ
1.入力されたデータに
したがい結果を出力
4.誤差が小さくなる
まで繰り返す
2.期待結果との違い
を誤差として計算
出力
“dog”
“cat”
“human”
“tiger”
正解ラベル
“cat”
“dog”
“monkey”
“lion”誤差
3.誤差を用いて
ネットワークを更新
誤差逆伝播法
処理のイメージ
23
誤差
誤差を逆方向に伝えて、各層の重み行列を更新する
トレーニングデータ
誤差逆伝播法
24
重み に関する
誤差の傾き
を更新したいある層の重み
直接計算することが
容易ではない
誤差逆伝播法
25
直前の層の出力
に関する誤差の傾き
次の層への出力
重み に関する
誤差の傾き に関する誤差の傾き
さらに次の層への出力
を更新したいある層の重み
ディープラーニングの学習フロー
26
トレーニングデータ
1.入力されたデータに
したがい結果を出力
2.期待結果との違い
を誤差として計算
出力
“dog”
“cat”
“human”
“tiger”
正解ラベル
“cat”
“dog”
“monkey”
“lion”誤差
3.誤差を用いて
ネットワークを更新
4.誤差が小さくなる
まで繰り返す
学習プロセスの単位: ミニバッチ
27
全トレーニングデータ(バッチ)
ミニバッチ#3
ミニバッチ#2
ミニバッチ#1
ミニバッチ#1
誤差
誤差
誤差
誤差
ミニバッチ単位で
誤差を計算し更新
学習プロセスの単位: エポック
28
全トレーニングデータ(バッチ)
ミニバッチ#3
ミニバッチ#2
ミニバッチ#1
ミニバッチ#3
誤差
誤差
誤差
誤差
ミニバッチ#2
誤差
誤差
誤差
誤差
ミニバッチ#1
誤差
誤差
誤差
誤差
全トレーニングデータを使った1サイクルを
エポック(epoch)と呼ぶ
性能改善のための考え方・テクニック
学習経過の確認
30
トレーニングデータから計算した
誤差の変化量が一定範囲以下になる
=「学習が収束」
誤差
エポック
training
学習が収束すると、うまく入力に対して予測できるニューラルネットになっている……
とは限らない
学習結果の妥当性チェック
31
データを訓練データと検証データに分割し、学習結果を評価することが重要
収集したデータ
訓練データ(training data)
重みの更新
(学習)に使用
検証データ(validation data)
汎化性能の
確認に使用
学習結果の妥当性チェック
32
エポック
training
validation
誤差
エポック
training
validation
誤差
学習がうまく進んだ場合
→訓練データ、検証データとも
誤差が下がっていく
学習が失敗した場合
→訓練データのみ誤差が下がり、
検証データは十分な精度が出ない
右の状態は「過学習(overfitting)」などと表現され、汎化性能が低い状態
(汎化性能=訓練データに含まれていないデータへの予測性能)
学習率
重みの更新量を調整するパラメータ
33重み w
誤差 E
wnwn+1 wn+2
学習率が大きすぎると
最適解付近を往復
誤差 E
wnwn+1wn+2
学習率が小さすぎると
学習の進みが遅い
学習率
局所解の存在
34
スタート
重み w
誤差 E
局所解
ゴール?
最適解
真のゴール
学習率
局所解の存在
35
最適解
3
2
5
6
スタート
重み w
誤差 E
7
8
大きな学習率で
大きく更新
ゴール
途中から学習率を下げ
小さく更新
41
DROPOUT
過学習回避のテクニック
36
z1
z2
z3
x1
x2
x3
y1
y2
y3
y4
y1
y4
隠れ層の一部ノードを
ランダムに無効化
BATCH NORMALIZATION
学習を収束しやすくするテクニック
37
x1
x2
x3
y1
y2
y3
y4
z1
z2
z3
bn1
bn2
bn3
bn4
隠れ層などへの入力を
ミニバッチ単位で正規化
その他のテクニック
• Pretraining
• Fine-tuning(Transfer learningを一部含む)
• Optimizers(AdaGrad, Adam, etc...)
• Learning rate scheduling
• など……
深いネットワークを学習するために
38
さまざまなネットワークと応用例
基本的なネットワーク
多層ニューラルネットワーク
40
前層の全ノードが次層のノードに
接続されている状態
↓
全結合している
畳み込みニューラルネットワーク
(CONVOLUTIONAL NEURAL NETWORK)
画像を扱うことに長けたネットワーク
41
畳み込み層&
プーリング層
全結合層
畳み込みニューラルネットワーク
(CONVOLUTIONAL NEURAL NETWORK)
重み共有による局所構造の獲得
42
生データ 低レベルの特徴 中間レベルの特徴 高レベルの特徴
入力 結果
CNN: 畳み込み層
43
0
0
0
0
0
0
0
0
1
1
1
0
0
0
0
1
2
2
1
1
1
0
1
2
2
2
1
1
0
1
2
2
2
1
1
0
0
1
1
1
1
1
0
0
0
0
0
0
0
4
0
0
0
0
0
0
0
-4
1
0
-8
入力ピクセル
コンボリューション
カーネル
出力ピクセル
入力とカーネルとで
要素同士の積を計算し、
全て足したものが出力
カーネルの重みも
学習によって調整される
CNN: 畳み込み層
44
vdumoulin/conv_arithmetic, https://github.com/vdumoulin/conv_arithmetic
入力
コンボリューションカーネル
出力
CNN: 畳み込み層
45
元画像
畳み込みカーネル
出力
畳み込みの計算例
CNNの応用
46
画像分類
物体検出
領域分割/
セマンティックセグメンテーション
などなど……
リカレントニューラルネットワーク
(RECURRENT NEURAL NETWORK)
系列データを自然に扱うためのネットワーク
47
隠れ層の出力を
隠れ層の入力として戻す
出力層
隠れ層
入力層
リカレントニューラルネットワーク
(RECURRENT NEURAL NETWORK)
系列データを自然に扱うためのネットワーク
48
出力層
隠れ層
入力層
展
開
出力層
隠れ層
入力層
出力層
隠れ層
入力層
t = 1 t = 2
前の出力を次の入力に
することで、依存関係を考慮
長い系列ほど深い
ネットワークになる
LSTM: LONG SHORT-TERM MEMORY
RNNの欠点を解消するネットワーク
49
出力層
隠れ層
入力層
RNNの隠れ層を
LSTMブロックで置き換え
いくつかのゲートによって
長期の依存関係を
学習できるように
RNN/LSTMの応用
50
系列データ予測
次が上がるのか
下がるのかを予測 異常予測
定常的なふるまいと
異なる動作を予測
などなど……
ディープラーニングを実装するために
ディープラーニングフレームワーク
GPUで高速化されたフレームワークが、アルゴリズムの実装を強力にサポート
52
ディープラーニング フレームワーク
https://developer.nvidia.com/deep-learning-frameworks
Mocha.jl
NVIDIA DEEP LEARNING プラットフォーム
53
COMPUTER VISION SPEECH AND AUDIO BEHAVIOR
Object Detection Voice Recognition Translation
Recommendation
Engines
Sentiment Analysis
DEEP LEARNING
cuDNN
MATH LIBRARIES
cuBLAS cuSPARSE
MULTI-GPU
NCCL
cuFFT
Mocha.jl
Image Classification
ディープラーニング
SDK
フレームワーク
アプリケーション
GPU プラットフォーム
CLOUD GPU
Tesla
V100
Tesla
P40/P4
Jetson TX2
SERVER
DGX-1
TensorRT
DRIVEPX2
CUDA
どのフレームワークを使うべきか?
用途などに応じて使い分ける
54
C++? Python?
Define-and-run? Define-by-run?
Popular? Unpopular?
? ?
etc…
計算グラフによるネットワーク構築
多くのフレームワークに共通する考え方
55
input
conv1 h1 pool1 h2 conv2 h3
pool2 h4 fc1 h5 relu1 h6
fc2 h7 softmax
prob.
loss
label
error
計算 データ
計算グラフによるネットワーク構築
多くのフレームワークに共通する考え方
56
input
conv1 h1 pool1 h2 conv2 h3
pool2 h4 fc1 h5 relu1 h6
fc2 h7 softmax
prob.
loss
label
error
計算 データ
順方向に処理:
forward propagation Forward propagationで行われる処理
• ネットワークに入力データ(=input)を渡して、
順番に計算を進める
主に学習時のみの処理
• 教師データ(=label)と、ネットワークの出力
(=prob.)から、目的関数(=loss)を計算し誤
差(=error)として定量化
計算グラフによるネットワーク構築
多くのフレームワークに共通する考え方
57
input
conv1 h1 pool1 h2 conv2 h3
pool2 h4 fc1 h5 relu1 h6
fc2 h7 softmax
prob.
loss
label
error
計算 データ
Backward propagationで行われる処理
• Forwardで計算した誤差を使って、出力層側
から各層の勾配を計算
(計算完了後に、各層の重みを更新)
逆方向に処理:
backward propagation
計算グラフの構築方法
Define-and-run vs. Define-by-run
58
# Define-and-Run
# 計算グラフを構築後に、計算を実行
x = Variable(‘x’)
w = Variable(‘w’)
y = x * w
for xi, wi in data:
eval(y, (xi, wi))
# Define-by-Run
# 計算グラフの構築と実行が同時
for xi, wi in data:
x = Variable(xi)
w = Variable(wi)
y = x * w
この時点では、
何も計算されていない
この時点で、
計算結果を出力できる
計算グラフの構築方法
Define-and-run vs. Define-by-run
59
# Define-and-Run
# 計算グラフを構築後に、計算を実行
x = Variable(‘x’)
w = Variable(‘w’)
y = x * w
for xi, wi in data:
eval(y, (xi, wi))
# Define-by-Run
# 計算グラフの構築と実行が同時
for i, (xi, wi) in enumerate(data):
x = Variable(xi)
w = Variable(wi)
if i % 2 == 0:
y = x * w
else:
y = x + w
データに応じた
処理の分岐が楽
処理の分岐には
工夫が必要
計算グラフの構築方法
Define-and-run vs. Define-by-run
60
# Define-and-Run
# 計算グラフを構築後に、計算を実行
x = Variable(‘x’)
w = Variable(‘w’)
y = x * w
for xi, wi in data:
eval(y, (xi, wi))
# Define-by-Run
# 計算グラフの構築と実行が同時
for i, (xi, wi) in enumerate(data):
x = Variable(xi)
w = Variable(wi)
if i % 2 == 0:
y = x * w
else:
y = x + w
ソフトウェアスタックの管理は大変
例: フレームワークを利用するアプリケーションのソフトウェアスタック
61
OS
NVIDIA driver
CUDA
cuDNN cuBLAS …
Applications
Frameworks
ソフトウェアスタックの管理は大変
例: フレームワークを利用するアプリケーションのソフトウェアスタック
62
OS
NVIDIA driver
CUDA
cuDNN 7cuBLAS…
Applications
FrameworkA 1.1
OS
NVIDIA driver
CUDA
cuDNN 6 cuBLAS …
Applications
FrameworkB 1.1
フレームワークごとにGPUへの
対応状況が異なる場合、
複数バージョンが必要
ソフトウェアスタックの管理は大変
例: フレームワークを利用するアプリケーションのソフトウェアスタック
63
NVIDIA driver
OS
FrameworkA container
CUDA
cuDNN 7cuBLAS…
FrameworkA 1.1
FrameworkB container
CUDA
cuDNN 6 cuBLAS …
FrameworkB 1.1
うまくまとめられれば、
複数バージョンの
共存を容易にできる
64
NVIDIA DOCKER
コンテナによるポータビリティ
コンテナのメリット:
GPU 対応アプリケーションの展開を容易に
個々のフレームワークやアプリケーションをコンテナで隔離
同一モジュールの異なるバージョンが混在可能
複数環境でのアプリケーション共有・コラボレーションを促進
SUMMARY
KEY TAKEAWAYS
1. ディープラーニングは、ニューラルネットワークがベースとなる手法
2. ネットワークの学習には、主に勾配法と誤差逆伝播法が用いられる
3. 学習が適切に行われたか、十分に検証することが重要
4. データの構造や特性に応じて、さまざまな構造のネットワークがある
5. フレームワークなどを利用することで、実装を効率化することができる
ディープラーニングの実践に向けて
66
www.nvidia.com/dli

More Related Content

What's hot

【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion ModelsDeep Learning JP
 
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...Deep Learning JP
 
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View SynthesisDeep Learning JP
 
【DL輪読会】Patches Are All You Need? (ConvMixer)
【DL輪読会】Patches Are All You Need? (ConvMixer)【DL輪読会】Patches Are All You Need? (ConvMixer)
【DL輪読会】Patches Are All You Need? (ConvMixer)Deep Learning JP
 
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII
 
物体検出の歴史(R-CNNからSSD・YOLOまで)
物体検出の歴史(R-CNNからSSD・YOLOまで)物体検出の歴史(R-CNNからSSD・YOLOまで)
物体検出の歴史(R-CNNからSSD・YOLOまで)HironoriKanazawa
 
これからの Vision & Language ~ Acadexit した4つの理由
これからの Vision & Language ~ Acadexit した4つの理由これからの Vision & Language ~ Acadexit した4つの理由
これからの Vision & Language ~ Acadexit した4つの理由Yoshitaka Ushiku
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報Deep Learning JP
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説tancoro
 
【DL輪読会】Novel View Synthesis with Diffusion Models
【DL輪読会】Novel View Synthesis with Diffusion Models【DL輪読会】Novel View Synthesis with Diffusion Models
【DL輪読会】Novel View Synthesis with Diffusion ModelsDeep Learning JP
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Yusuke Uchida
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised LearningまとめDeep Learning JP
 
Active Convolution, Deformable Convolution ―形状・スケールを学習可能なConvolution―
Active Convolution, Deformable Convolution ―形状・スケールを学習可能なConvolution―Active Convolution, Deformable Convolution ―形状・スケールを学習可能なConvolution―
Active Convolution, Deformable Convolution ―形状・スケールを学習可能なConvolution―Yosuke Shinya
 
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)Hiroki Nakahara
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~nlab_utokyo
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情Yuta Kikuchi
 
【メタサーベイ】Video Transformer
 【メタサーベイ】Video Transformer 【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformercvpaper. challenge
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会正志 坪坂
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてSho Takase
 

What's hot (20)

【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
 
Lucas kanade法について
Lucas kanade法についてLucas kanade法について
Lucas kanade法について
 
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
 
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
[DL輪読会]NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
 
【DL輪読会】Patches Are All You Need? (ConvMixer)
【DL輪読会】Patches Are All You Need? (ConvMixer)【DL輪読会】Patches Are All You Need? (ConvMixer)
【DL輪読会】Patches Are All You Need? (ConvMixer)
 
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
 
物体検出の歴史(R-CNNからSSD・YOLOまで)
物体検出の歴史(R-CNNからSSD・YOLOまで)物体検出の歴史(R-CNNからSSD・YOLOまで)
物体検出の歴史(R-CNNからSSD・YOLOまで)
 
これからの Vision & Language ~ Acadexit した4つの理由
これからの Vision & Language ~ Acadexit した4つの理由これからの Vision & Language ~ Acadexit した4つの理由
これからの Vision & Language ~ Acadexit した4つの理由
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説
 
【DL輪読会】Novel View Synthesis with Diffusion Models
【DL輪読会】Novel View Synthesis with Diffusion Models【DL輪読会】Novel View Synthesis with Diffusion Models
【DL輪読会】Novel View Synthesis with Diffusion Models
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
 
Active Convolution, Deformable Convolution ―形状・スケールを学習可能なConvolution―
Active Convolution, Deformable Convolution ―形状・スケールを学習可能なConvolution―Active Convolution, Deformable Convolution ―形状・スケールを学習可能なConvolution―
Active Convolution, Deformable Convolution ―形状・スケールを学習可能なConvolution―
 
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
【メタサーベイ】Video Transformer
 【メタサーベイ】Video Transformer 【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformer
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
 

Similar to これから始める人のためのディープラーニング基礎講座

ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門NVIDIA Japan
 
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化RCCSRENKEI
 
NVIDIA ディープラーニング入門
NVIDIA ディープラーニング入門NVIDIA ディープラーニング入門
NVIDIA ディープラーニング入門Seong-Hun Choe
 
Cvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoakiCvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoakitomoaki0705
 
エヌビディアが加速するディープラーニング ~進化するニューラルネットワークとその開発方法について~
エヌビディアが加速するディープラーニング ~進化するニューラルネットワークとその開発方法について~エヌビディアが加速するディープラーニング ~進化するニューラルネットワークとその開発方法について~
エヌビディアが加速するディープラーニング ~進化するニューラルネットワークとその開発方法について~NVIDIA Japan
 
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~NVIDIA Japan
 
ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介ADVENTURE Project
 
GTC 2016 ディープラーニング最新情報
GTC 2016 ディープラーニング最新情報GTC 2016 ディープラーニング最新情報
GTC 2016 ディープラーニング最新情報NVIDIA Japan
 
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGAAn Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGALeapMind Inc
 
20171206 Sony Neural Network Console 活用テクニック
20171206 Sony Neural Network Console 活用テクニック20171206 Sony Neural Network Console 活用テクニック
20171206 Sony Neural Network Console 活用テクニックSony Network Communications Inc.
 
Iot algyan jhirono 20190111
Iot algyan jhirono 20190111Iot algyan jhirono 20190111
Iot algyan jhirono 20190111Hirono Jumpei
 
はじめての人のためのDeep Learning
はじめての人のためのDeep Learningはじめての人のためのDeep Learning
はじめての人のためのDeep LearningTadaichiro Nakano
 
これから始める人の為のディープラーニング基礎講座
これから始める人の為のディープラーニング基礎講座これから始める人の為のディープラーニング基礎講座
これから始める人の為のディープラーニング基礎講座NVIDIA Japan
 
DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用Kazuki Fujikawa
 
01 idea table3.2
01 idea table3.201 idea table3.2
01 idea table3.2umisuzume
 
Deeplearning bank marketing dataset
Deeplearning bank marketing datasetDeeplearning bank marketing dataset
Deeplearning bank marketing datasetTellSun
 

Similar to これから始める人のためのディープラーニング基礎講座 (20)

ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
 
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
 
マイクロソフトが考えるAI活用のロードマップ
マイクロソフトが考えるAI活用のロードマップマイクロソフトが考えるAI活用のロードマップ
マイクロソフトが考えるAI活用のロードマップ
 
NVIDIA ディープラーニング入門
NVIDIA ディープラーニング入門NVIDIA ディープラーニング入門
NVIDIA ディープラーニング入門
 
Cvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoakiCvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoaki
 
エヌビディアが加速するディープラーニング ~進化するニューラルネットワークとその開発方法について~
エヌビディアが加速するディープラーニング ~進化するニューラルネットワークとその開発方法について~エヌビディアが加速するディープラーニング ~進化するニューラルネットワークとその開発方法について~
エヌビディアが加速するディープラーニング ~進化するニューラルネットワークとその開発方法について~
 
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
 
MIRU_Preview_JSAI2019
MIRU_Preview_JSAI2019MIRU_Preview_JSAI2019
MIRU_Preview_JSAI2019
 
ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介ADVENTUREの他のモジュール・関連プロジェクトの紹介
ADVENTUREの他のモジュール・関連プロジェクトの紹介
 
GTC 2016 ディープラーニング最新情報
GTC 2016 ディープラーニング最新情報GTC 2016 ディープラーニング最新情報
GTC 2016 ディープラーニング最新情報
 
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGAAn Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
 
Ldd13 present
Ldd13 presentLdd13 present
Ldd13 present
 
20171206 Sony Neural Network Console 活用テクニック
20171206 Sony Neural Network Console 活用テクニック20171206 Sony Neural Network Console 活用テクニック
20171206 Sony Neural Network Console 活用テクニック
 
Iot algyan jhirono 20190111
Iot algyan jhirono 20190111Iot algyan jhirono 20190111
Iot algyan jhirono 20190111
 
はじめての人のためのDeep Learning
はじめての人のためのDeep Learningはじめての人のためのDeep Learning
はじめての人のためのDeep Learning
 
これから始める人の為のディープラーニング基礎講座
これから始める人の為のディープラーニング基礎講座これから始める人の為のディープラーニング基礎講座
これから始める人の為のディープラーニング基礎講座
 
DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用
 
01 idea table3.2
01 idea table3.201 idea table3.2
01 idea table3.2
 
Deeplearning bank marketing dataset
Deeplearning bank marketing datasetDeeplearning bank marketing dataset
Deeplearning bank marketing dataset
 
Semantic segmentation
Semantic segmentationSemantic segmentation
Semantic segmentation
 

More from NVIDIA Japan

HPC 的に H100 は魅力的な GPU なのか?
HPC 的に H100 は魅力的な GPU なのか?HPC 的に H100 は魅力的な GPU なのか?
HPC 的に H100 は魅力的な GPU なのか?NVIDIA Japan
 
NVIDIA cuQuantum SDK による量子回路シミュレーターの高速化
NVIDIA cuQuantum SDK による量子回路シミュレーターの高速化NVIDIA cuQuantum SDK による量子回路シミュレーターの高速化
NVIDIA cuQuantum SDK による量子回路シミュレーターの高速化NVIDIA Japan
 
Physics-ML のためのフレームワーク NVIDIA Modulus 最新事情
Physics-ML のためのフレームワーク NVIDIA Modulus 最新事情Physics-ML のためのフレームワーク NVIDIA Modulus 最新事情
Physics-ML のためのフレームワーク NVIDIA Modulus 最新事情NVIDIA Japan
 
20221021_JP5.0.2-Webinar-JP_Final.pdf
20221021_JP5.0.2-Webinar-JP_Final.pdf20221021_JP5.0.2-Webinar-JP_Final.pdf
20221021_JP5.0.2-Webinar-JP_Final.pdfNVIDIA Japan
 
NVIDIA Modulus: Physics ML 開発のためのフレームワーク
NVIDIA Modulus: Physics ML 開発のためのフレームワークNVIDIA Modulus: Physics ML 開発のためのフレームワーク
NVIDIA Modulus: Physics ML 開発のためのフレームワークNVIDIA Japan
 
NVIDIA HPC ソフトウエア斜め読み
NVIDIA HPC ソフトウエア斜め読みNVIDIA HPC ソフトウエア斜め読み
NVIDIA HPC ソフトウエア斜め読みNVIDIA Japan
 
HPC+AI ってよく聞くけど結局なんなの
HPC+AI ってよく聞くけど結局なんなのHPC+AI ってよく聞くけど結局なんなの
HPC+AI ってよく聞くけど結局なんなのNVIDIA Japan
 
Magnum IO GPUDirect Storage 最新情報
Magnum IO GPUDirect Storage 最新情報Magnum IO GPUDirect Storage 最新情報
Magnum IO GPUDirect Storage 最新情報NVIDIA Japan
 
データ爆発時代のネットワークインフラ
データ爆発時代のネットワークインフラデータ爆発時代のネットワークインフラ
データ爆発時代のネットワークインフラNVIDIA Japan
 
Hopper アーキテクチャで、変わること、変わらないこと
Hopper アーキテクチャで、変わること、変わらないことHopper アーキテクチャで、変わること、変わらないこと
Hopper アーキテクチャで、変わること、変わらないことNVIDIA Japan
 
GPU と PYTHON と、それから最近の NVIDIA
GPU と PYTHON と、それから最近の NVIDIAGPU と PYTHON と、それから最近の NVIDIA
GPU と PYTHON と、それから最近の NVIDIANVIDIA Japan
 
GTC November 2021 – テレコム関連アップデート サマリー
GTC November 2021 – テレコム関連アップデート サマリーGTC November 2021 – テレコム関連アップデート サマリー
GTC November 2021 – テレコム関連アップデート サマリーNVIDIA Japan
 
テレコムのビッグデータ解析 & AI サイバーセキュリティ
テレコムのビッグデータ解析 & AI サイバーセキュリティテレコムのビッグデータ解析 & AI サイバーセキュリティ
テレコムのビッグデータ解析 & AI サイバーセキュリティNVIDIA Japan
 
必見!絶対におすすめの通信業界セッション 5 つ ~秋の GTC 2020~
必見!絶対におすすめの通信業界セッション 5 つ ~秋の GTC 2020~必見!絶対におすすめの通信業界セッション 5 つ ~秋の GTC 2020~
必見!絶対におすすめの通信業界セッション 5 つ ~秋の GTC 2020~NVIDIA Japan
 
2020年10月29日 プロフェッショナルAI×Roboticsエンジニアへのロードマップ
2020年10月29日 プロフェッショナルAI×Roboticsエンジニアへのロードマップ2020年10月29日 プロフェッショナルAI×Roboticsエンジニアへのロードマップ
2020年10月29日 プロフェッショナルAI×RoboticsエンジニアへのロードマップNVIDIA Japan
 
2020年10月29日 Jetson活用によるAI教育
2020年10月29日 Jetson活用によるAI教育2020年10月29日 Jetson活用によるAI教育
2020年10月29日 Jetson活用によるAI教育NVIDIA Japan
 
2020年10月29日 Jetson Nano 2GBで始めるAI x Robotics教育
2020年10月29日 Jetson Nano 2GBで始めるAI x Robotics教育2020年10月29日 Jetson Nano 2GBで始めるAI x Robotics教育
2020年10月29日 Jetson Nano 2GBで始めるAI x Robotics教育NVIDIA Japan
 
COVID-19 研究・対策に活用可能な NVIDIA ソフトウェアと関連情報
COVID-19 研究・対策に活用可能な NVIDIA ソフトウェアと関連情報COVID-19 研究・対策に活用可能な NVIDIA ソフトウェアと関連情報
COVID-19 研究・対策に活用可能な NVIDIA ソフトウェアと関連情報NVIDIA Japan
 
Jetson Xavier NX クラウドネイティブをエッジに
Jetson Xavier NX クラウドネイティブをエッジにJetson Xavier NX クラウドネイティブをエッジに
Jetson Xavier NX クラウドネイティブをエッジにNVIDIA Japan
 
GTC 2020 発表内容まとめ
GTC 2020 発表内容まとめGTC 2020 発表内容まとめ
GTC 2020 発表内容まとめNVIDIA Japan
 

More from NVIDIA Japan (20)

HPC 的に H100 は魅力的な GPU なのか?
HPC 的に H100 は魅力的な GPU なのか?HPC 的に H100 は魅力的な GPU なのか?
HPC 的に H100 は魅力的な GPU なのか?
 
NVIDIA cuQuantum SDK による量子回路シミュレーターの高速化
NVIDIA cuQuantum SDK による量子回路シミュレーターの高速化NVIDIA cuQuantum SDK による量子回路シミュレーターの高速化
NVIDIA cuQuantum SDK による量子回路シミュレーターの高速化
 
Physics-ML のためのフレームワーク NVIDIA Modulus 最新事情
Physics-ML のためのフレームワーク NVIDIA Modulus 最新事情Physics-ML のためのフレームワーク NVIDIA Modulus 最新事情
Physics-ML のためのフレームワーク NVIDIA Modulus 最新事情
 
20221021_JP5.0.2-Webinar-JP_Final.pdf
20221021_JP5.0.2-Webinar-JP_Final.pdf20221021_JP5.0.2-Webinar-JP_Final.pdf
20221021_JP5.0.2-Webinar-JP_Final.pdf
 
NVIDIA Modulus: Physics ML 開発のためのフレームワーク
NVIDIA Modulus: Physics ML 開発のためのフレームワークNVIDIA Modulus: Physics ML 開発のためのフレームワーク
NVIDIA Modulus: Physics ML 開発のためのフレームワーク
 
NVIDIA HPC ソフトウエア斜め読み
NVIDIA HPC ソフトウエア斜め読みNVIDIA HPC ソフトウエア斜め読み
NVIDIA HPC ソフトウエア斜め読み
 
HPC+AI ってよく聞くけど結局なんなの
HPC+AI ってよく聞くけど結局なんなのHPC+AI ってよく聞くけど結局なんなの
HPC+AI ってよく聞くけど結局なんなの
 
Magnum IO GPUDirect Storage 最新情報
Magnum IO GPUDirect Storage 最新情報Magnum IO GPUDirect Storage 最新情報
Magnum IO GPUDirect Storage 最新情報
 
データ爆発時代のネットワークインフラ
データ爆発時代のネットワークインフラデータ爆発時代のネットワークインフラ
データ爆発時代のネットワークインフラ
 
Hopper アーキテクチャで、変わること、変わらないこと
Hopper アーキテクチャで、変わること、変わらないことHopper アーキテクチャで、変わること、変わらないこと
Hopper アーキテクチャで、変わること、変わらないこと
 
GPU と PYTHON と、それから最近の NVIDIA
GPU と PYTHON と、それから最近の NVIDIAGPU と PYTHON と、それから最近の NVIDIA
GPU と PYTHON と、それから最近の NVIDIA
 
GTC November 2021 – テレコム関連アップデート サマリー
GTC November 2021 – テレコム関連アップデート サマリーGTC November 2021 – テレコム関連アップデート サマリー
GTC November 2021 – テレコム関連アップデート サマリー
 
テレコムのビッグデータ解析 & AI サイバーセキュリティ
テレコムのビッグデータ解析 & AI サイバーセキュリティテレコムのビッグデータ解析 & AI サイバーセキュリティ
テレコムのビッグデータ解析 & AI サイバーセキュリティ
 
必見!絶対におすすめの通信業界セッション 5 つ ~秋の GTC 2020~
必見!絶対におすすめの通信業界セッション 5 つ ~秋の GTC 2020~必見!絶対におすすめの通信業界セッション 5 つ ~秋の GTC 2020~
必見!絶対におすすめの通信業界セッション 5 つ ~秋の GTC 2020~
 
2020年10月29日 プロフェッショナルAI×Roboticsエンジニアへのロードマップ
2020年10月29日 プロフェッショナルAI×Roboticsエンジニアへのロードマップ2020年10月29日 プロフェッショナルAI×Roboticsエンジニアへのロードマップ
2020年10月29日 プロフェッショナルAI×Roboticsエンジニアへのロードマップ
 
2020年10月29日 Jetson活用によるAI教育
2020年10月29日 Jetson活用によるAI教育2020年10月29日 Jetson活用によるAI教育
2020年10月29日 Jetson活用によるAI教育
 
2020年10月29日 Jetson Nano 2GBで始めるAI x Robotics教育
2020年10月29日 Jetson Nano 2GBで始めるAI x Robotics教育2020年10月29日 Jetson Nano 2GBで始めるAI x Robotics教育
2020年10月29日 Jetson Nano 2GBで始めるAI x Robotics教育
 
COVID-19 研究・対策に活用可能な NVIDIA ソフトウェアと関連情報
COVID-19 研究・対策に活用可能な NVIDIA ソフトウェアと関連情報COVID-19 研究・対策に活用可能な NVIDIA ソフトウェアと関連情報
COVID-19 研究・対策に活用可能な NVIDIA ソフトウェアと関連情報
 
Jetson Xavier NX クラウドネイティブをエッジに
Jetson Xavier NX クラウドネイティブをエッジにJetson Xavier NX クラウドネイティブをエッジに
Jetson Xavier NX クラウドネイティブをエッジに
 
GTC 2020 発表内容まとめ
GTC 2020 発表内容まとめGTC 2020 発表内容まとめ
GTC 2020 発表内容まとめ
 

Recently uploaded

論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A surveyToru Tamaki
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdftaisei2219
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...Toru Tamaki
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムsugiuralab
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものですiPride Co., Ltd.
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNetToru Tamaki
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Yuma Ohgami
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Danieldanielhu54
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略Ryo Sasaki
 

Recently uploaded (9)

論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey論文紹介:Semantic segmentation using Vision Transformers: A survey
論文紹介:Semantic segmentation using Vision Transformers: A survey
 
TSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdfTSAL operation mechanism and circuit diagram.pdf
TSAL operation mechanism and circuit diagram.pdf
 
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
論文紹介:Content-Aware Token Sharing for Efficient Semantic Segmentation With Vis...
 
スマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システムスマートフォンを用いた新生児あやし動作の教示システム
スマートフォンを用いた新生児あやし動作の教示システム
 
SOPを理解する 2024/04/19 の勉強会で発表されたものです
SOPを理解する       2024/04/19 の勉強会で発表されたものですSOPを理解する       2024/04/19 の勉強会で発表されたものです
SOPを理解する 2024/04/19 の勉強会で発表されたものです
 
論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet論文紹介:Automated Classification of Model Errors on ImageNet
論文紹介:Automated Classification of Model Errors on ImageNet
 
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
Open Source UN-Conference 2024 Kawagoe - 独自OS「DaisyOS GB」の紹介
 
Postman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By DanielPostman LT Fukuoka_Quick Prototype_By Daniel
Postman LT Fukuoka_Quick Prototype_By Daniel
 
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
[DevOpsDays Tokyo 2024] 〜デジタルとアナログのはざまに〜 スマートビルディング爆速開発を支える 自動化テスト戦略
 

これから始める人のためのディープラーニング基礎講座