久久成人18免费_日韩欧美网址_无遮挡1000部拍拍拍免费观看_一区二区在线免费视频

Semiconductor Portal

» 寄M » 寄M(半導応)

ニューロチップ説 〜いよいよ半導の出番(1-1)

クラウドWのIoTシステムの進tと、ビッグデータ解析、Google検索などから人工ΑArtificial Intelligence)やコグニティブコンピューティングがR`されるようになってきた。学{機Δ魴eつ人工Δ任魯縫紂璽薀襯優奪肇錙璽のモデルで学{機Α淵妊ープラーニング)を実現している。AIのカギとなるニューラルネットワークのアーキテクチャはもちろん、シリコン半導屬房存修垢襦この寄Mでは、元半導理工学研|センター(STARC)/東の半導エンジニアであった瀬啓がニューロチップについて解説する。(セミコンポータル集室)

著v: 元半導理工学研|センター(STARC)/元東 瀬 啓

はじめに
ここ1〜2Qのディープラーニングの進tはすばらしく、押し寄せるSはまさに「ディープインパクト」である。認識(映機音m、データ)でも運動でもエンドツーエンドで処理を行うようになる。入(エンド)と出(エンド)の間には「邸廚離▲襯乾螢坤爐癲⊃Q来世cを配した運動究式も見えなくなり、蜂や鳥の様にドローン(進化型)が}畑や林の中を飛びvるようになる。あっという間の進化のスピードによって「びっくりポン」Xになる。さらにこれからはO慢の鼎龍\も不要となり、このままでは噞・\術・個人レベルでのイノベーションジレンマが発據⊇jきなディープインパクトに飲まれてしまいそうだ。

より素]く(2桁以屬硫)、より詳細で(コンテンツ認識)、魅的な(合成、色彩け等)、Uの深さがある(H入)、しかも動きを捉えO化可Δ箸垢襦淵泪襯船癲璽瀬襦剖砲瓩噸lかな認識\術が確立されている。さらにこの成功が引き金となり、よりO性を啣修垢覲{桔 啣蹴{)が加わり、新しい運動法А淵┘鵐疋帖璽┘鵐鼻Ε蕁璽縫鵐亜砲デビュー(完成)する。人間の識・Lを{uするまでに至っておらず人工Δ猟困から見ると2〜3合`でしかないが、jきなビジネスチャンスをeつベースキャンプの入口に立っているXだといえる。

さらにJTの半導関連\術に瓦垢霾的かつ包括的な見直しも魅的である。例えば映気任離┘鵐魁璽鼻▲妊魁璽鼻▲肇薀鵐好魁璽鼻合成、トランスフォーム(Morphing)、検索、ノイズ除去等々を、ディープラーニングで再構築することも楽しいかもしれない(Jにやられている?)。音m、データでも同様で、また長Qの課も解できるかもしれない。センシングから認識の霾を包括的に見直すことも興味ある課である。ニューロモルフィック/ニューロインフォマティクスや、骰n虫まで野に入れたバイオミメティクスへのRがキーとなる。

本報告の主張はサブタイトルにあるように「いよいよ満をeしての半導の出番」である。サーバーUはもとより、エッジUへのt開が始まる。O運動UやモバイルユビキタスU、さらには環境U(IoT・・・)とHくの分野にS及しよう。また今後の半導の戦術・戦S策定の作業のMbとなればmいだと考えている(R1)。その策定スコープはQ々のx場覦茲砲ける群「メモリ、メモリ混載、b理LSI(CPU・GPU・FPGA・カスタム)、IP、センサとの融合等」、および\術(材料、デバイス、v路、パッケージ/組み立て等)、さらにはx場・動向に及ぶ。

この記は、Hくの関係vに直接的、間接的にご教bいただいた内容をベースとしている。に2つの流派「N型機械学{ハードウェア(すなわちディープラーニング)とニューロモルフィック工学」のT在の認識は、半導\術vとして把曚里燭瓩隆霑識として_要である(参考@料1)。以下のように分けて報告を予定している。

1章・・・ニューロチップをDり巻く況〜いよいよ半導の出番(1-1)
    ニューロチップをDり巻く況〜いよいよ半導の出番(1-2)
2章・・・ディープ・ニューラルネットワークのニューロチップへの実◆舛修隆所は!!〜
3章・・・v路アーキテクチャ、デバイス、そして来動向(仮)

1章では、ディープラーイング、ニューロチップの昨今のX況に関して説する。2章は、今v~単に紹介するニューロチップからみたアプリケーションの的な機Α及び実△気譴討い襯▲襯乾螢坤爐亡悗靴堂Δ辺J囲でまとめて報告予定である。3章では、より半導にZいスタンスで報告する。なお、_要な語に関して、(語解説)をつけたので予めごk読いただきたい。

語解説
ニューラルネットワーク、ディープラーニング: ニューラルネットワークに関しては、ニューロモルフィック(主にスパイキングニューラルネットワーク)も含めて広いJ囲に適可Δ蔽語だが、昨今はディープラーニングとTびつけて語られる関係からかなり狭IなT味として使われているようだ。りのない限りディープラーニングとニューラルネットワークは同じ仲間の言として使する。
学{(learning)と実行(inference):英語に関して学{はtraining/learningである。実行は主にinference(他にExecution/running)が使われる。この関係から、実行の代わりにまれに推b(inference)が日本語で使われることもある。実行は瞬間的に終わるが、学{は106〜1010倍ほど時間がXかる。パラメータ数×学{v数(収Jまで)×(学{のサンプル)×α(|々の]縮テクニック)。
教師~り学{(supervised)と教師無し学{(unsupervised):今vの解説記では、りのない限り「教師~り学{」を扱う。国が教師を育成し、学鬚任修龍技佞学擇咾鬚気擦導个┨ませるが、その学擇実社会にでて働く(実行)わけである(実際は教師の代わりに教師パターンを使して学{する)。脱線するが、2012Q(今振り返るとW下分け`のQ)以T下になっている「教師無し学{」を見直そうという機運がこっている様である。
サーバーとエッジ:サーバーでは、学{(実行も)を如何に高]に行えるか! が唯k最jの関心である。エッジ笋任蓮⊆孫圓主で、高]性よりも低消Jなり、要なv路模が関心となる。(R:エッジリッチ/分g学{の考え気發△襦Щ温憂@料2)

1章:ニューロチップをDり巻く況 〜いよいよ半導の出番
1.1 アルゴリズム進化/システム応の広がりは指数関数的
1.2 満をeして半導登場
1.3 エッジUでのビジネスt開が加] 〜Z、ドローン、ロボット OUのDり込みも〜
1.4 低消J電化
1.5 2つの流派があることを常に認識しておく要がある
1.6 まだ2合`、3合`に到達した段階

1.1 アルゴリズム進化/システム応の広がりは指数関数的
繰り返しになるが、アルゴリズムの進歩とその応実証t開の]さは、ディープラーニングの最i線の\術vの気気╋辰ほど、加]度的に進歩しているのではないかと思う。課解までの]さ、学会(含むariXiv)b文のP数や進化の度合い、世c・日本Q地でぽんぽんと発信されるAI関連の研|所の動、そういった情報も含んだウェブ屬任隆慙記の遭遇の頻度の\加等、まさしく肌(頭で)で進化の度合い(イメージとしては世cで何万、何暇のディープラーニング\術vが寝食を忘れてうごめいているX況)を感じる。その勢いは2016Qに入りますますしくなっている。うごめきは万人模のような、いわゆる指数関数的である。
その感覚を定量的にしているものが、Googleが2015Q頃より紹介している「Growing use of deep learning at Google」なる図である。オリジナルはGoogleの講演@料(参考@料3)、NIPS2015のキーノートスピーチ(参考@料4)を参照していただきたい。ディープラーニングのモデルを含むディレクトリー数の2012Qからの\加をグラフにしたものだ。その値を転載したグラフが図1(a)の嵜泙峺線(白線)となる。2015Qから2016QにXけて指数関数的に\加、見ようによっては今が異点にも見える(ただし、白文Cの機ΡはずしもGoogleとは関係していない柄も含んでいる)。

図1: (a) 2012Q以Tのディープラーニングのt開のトレンドおよびフレームワークの普及/(b)2012Q以TのILSVRCでのエラー率 改の推
図1: (a) 2012Q以Tのディープラーニングのt開のトレンドおよびフレームワークの普及
  (b) 2012Q以TのILSVRCでのエラー率 改の推

この異点を考えるときに、要因はよく言われているように(参考@料7)以下になる。
1.Imagenetの貢献・・・R越した組E(ラベルきイメージ約1400万を擁する\会)
2.CNNアルゴリズム等・・・良きアルゴリズム
3.GPGPUの貢献・・・良きハード
4.フレームワークの貢献・・・良きソフト
   -CNN:主に画鞠Ъ叡に使われるQ込みニューラルネットワーク(Convolutional Neural Network)
   -Imagenet:ImageNet Large Scale Visual Recognition Competition ILSVRC 画鞠Ъ韻離リンピック。
いくつもの\があり、今vデータとして使っているのは100m\にも匹發垢k般認識

図1(b)に、ImagenetでのCNNをベースとしたネットワークでのk般認識のエラー率(1000クラスの仕分け、Top-5 Error)の2012QのAlex Net以Tの推,鮨す。Alex NetのNIPS2012での会場の雰囲気に関しては(参考@料5)が詳しい。またHくの\術著書/\術情報等がある(参考@料6、7)。この記念碑的ネットワークを原点として、エラー率は改、2015Qには人間のエラー率5.1%を越えた。ディープラーニングの基本的な\術革新(図中のuC:ReLu、Dropout・・・)にQ機関の改努(VGG Net/GoogLeNet等々)がもたらしたためである。今後はM易度が高くなるのでないかという気がする(R2)。

この画鞠Ъ韻CNNが磨かれて来ると同時に、もうkつのアルゴリズムの進化の軸として機性の向屬ある。その機性の向屬髻⊃1(b)の曲線の笋傍している。にCNNの脇をwめる高機Σ修鰆`指したアルゴリズムの進化(Hくは1980Q代の発がその元)が、応のJ囲をk層広げている。

この進化の壻で_要な点に、アルゴリズムを実世c屬縫┘潺絅譟璽箸垢襯愁侫肇ΕД▲帖璽襪任△襯侫譟璽爛錙璽のT在がある。図1(a)の笋8つほどのフレームワークを点在、また実際にツールを実△靴真佑凌与瑤廉[定トレンドをした。去Qより、日本のPFN 社(株式会社Preferred Network)のChainer、GoogleのTensorFlow、MSのCNTK、さらに5月のAmazonのDSSTNEとこぞってオープン化されている。これらフレームワークにはJTのネットワークがライブラリーとして入っているものもHくPythonに関して識のある\術vなら今日からでも、著@なネットワーク(例えばAlexNet)をO分のパソコン屬房△任る(参考@料8)。このT果、ディープラーニングにタッチした\術vは世cで万人(参考@料9)を軽く越えたと予[している。

を茲垢襪肇妊ープラーニングの仕様と妓性は以下の様にwまってきている。
- フェーズ1 (2012Q)・・・CNN 画鞠Ъ韻砲いてAlexNetがImagenetでiQをvる解率を達成
- フェーズ2 (2014Q)・・・CNNの}法改良と、CNNの脇をwめるアルゴリズムの進化とOUの適
           RNN (Recurrent neural network)・・・再帰型ニューラルネット(時U`データ処理)
           RL (Reinforcement learning)・・・啣蹴{(行動パターンの啣)
- フェーズ3 (2015Q〜) フレームワークのオープン化 Chainer、Tesorflow、CNTKなど

これらをQステップとして、現在の2016Qが異点を迎えていると考えることができる。

さて、この流れでハードウェア、半導のポジションはどうなのかがポイントとなる。 - フェーズ4 (201xQ) ハードウェア(・・・)

この分野は現時点NVIDIAのGPGPU/FPGAが使われている。この点に関しては次Iで説する。

1.2 満をeして半導登場
図2にニューロチップ関連(含:GPU/FPGA)の最Zの動向をす。`的別に3|類に分けられる。

  1. N神経科学理解のためのニューロモルフィック(様)チップ:神経ネットワークモデルを集積v路屬忘胴獣曚靴撞佞頬N機Δ魏しようとすることを`的としたシミュレータ・エミュレータチップ(参考@料1および 次v1.5I)。Nの高性Α高機性の実可性を秘めた分野である。にIBMのTrueNorthはエッジ応(とりあえずは)をターゲットとしたフラッグチップとしての性格もeち合わせている(R3)。なお、デバイス開発は発で昨Q12月のIEDMでは2つのセッションがこの分野関連となっていた。
  2. エッジチップ:実行が主で低消J電性が要である。今Qに入り発表がに\えている。次v少し詳しく述べる。学{が1チップある(KAIST2015 ISSCC)。
  3. サーバーチップ:学{で高]性がk。データセンターで、来のCPUからGPGPUもしくはFPGAに切りわりつつある。メモリバンド幅を拡jした擬亜HBM2→P100、Xilinx)が\術の`玉である。それ以外は、中国科学院(CAS)のDaDianNaoで、2014Q12月(MICRO47)に発表されたDRAM混載の学{チップ(Machine Learning Super Computer: CADベース、チップ化は画のみ)である。最新のTeslaベースのGPU(P100)よりも10倍度の高]性があり、パワーもk桁以崗さい。また5月18日のGoogle I/O 2016にてGoogleのカスタムチップTPU (Tensor Processing Unit:Tesorflowに官)に関しての発表(チップは1Qi)があったが詳細は次v以Tに報告する予定。

図2: ニューロチップ関連の最Zのトレンド
図2: ニューロチップ関連の最Zのトレンド

(2016/06/08)


R1:[定x場、機Δ犯焼関連の項との関連図。 ◎・・・~り、○・・・可性~り、空白・・・不
R1:[定x場、機Δ犯焼関連の項との関連図。

R2:人間の画気離ラス分けの認識(例えば、この^真は野良猫ではなくシャム猫だ!と当てる。実際は1000クラスの仕分け、Top-5 Error)ξがエラー率5.1%のようだが(参考@料7)、そもそも解(Ground Truth)も人間(1@のT果?)が与えているので5.1%以下は解にも確率(ガウス分布)がXかっているはず。ということでj雑把に1σ位の3.4%を異点としてグラフはプロットしている。ZづけばM易度がぐっと高くなるはず。今後は他の\|`が豸を浴びるのかもしれない。

R3:ニューロモルフィックチップの工学的実化をめざし、別の流派であるディープラーニングの\法の適を`指す動きがある。その際に2つの課がある。誤差逆伝鯔 BP法:Back Propagation」の適実証とバイナリー値の定量的解圓任△襦ここ数ヵ月(2015Q11月〜16Q4月)、IBM Oらまた、モントリオールj学(Bengio教bのグループ:Binary Connect/Binarized network)等の研|でi進が見られ、二つの流派に架け橋ができそうな雰囲気がある。なお、ディープラーニングとの架け橋が要かどうかも議bの余地のある点である。

参考@料

  1. 浅井哲也, 「ニューロモルフィック工学・N型機械学{ハードウェアの行機, 日本神経v路学会誌, Vol. 22 (2015) No. 4 p. 162-169. 2015Q12月
  2. K野原j輔, 「今後10Qの情報処理アーキテクチャーを探る」, 日経エレクトロニクス, 95〜105頁, 2015Q5月。
  3. 佐藤k憲, “Machine Intelligence at Google Scale: Vision/Speech API, TensorFlow and Cloud Machine Learning”, 2016Q4月4日
  4. Jeff Dean and Oriol Vinyals, “Large Scale Distributed Systems for Training Neural Networks”, NIPS 2015 Tutorial
  5. 佐藤育r, 「ディープラーニングのZ載応にむけて」, 2016Q1月8日
  6. K谷Q之, 「深層学{」 (機械学{プロフェッショナルシリーズ)、講i社、2015Q4月8日。
  7. 中儕凛`, 「深層Qみ込みニューラルネットワークによる画徴抽出と転ヽ{」, 電子情報通信学会音m研|会7月研|会, 2015. http://www.nlab.ci.i.u-tokyo.ac.jp/pdf/CNN_survey.pdf 2015Q7月。
  8. 儔捨官I, 「イラストで学ぶディープラーニング」, KS情報科学専門書, 講i社, 2016Q2月22日。
  9. ITmediaニュース, 「GoogleとUDACITY、「TensorFlow」で学ぶディープラーニング講座を開設」, UDACITYp講vは100万人を越えた, 2016Q1月22日。
ごT見・ご感[
久久成人18免费_日韩欧美网址_无遮挡1000部拍拍拍免费观看_一区二区在线免费视频
忽恢娼瞳糞田| 忽恢娼瞳av消消消消消醍狭利| 消消娼瞳触匯| 天胆総窃冉巖| 忽恢怜匚娼瞳胆溺谷頭篇撞| 冉巖天胆晩昆娼瞳消消冉巖曝| 荘遷篇撞撹繁壓濆杰| 忽恢娼瞳消消消消消薩翌其竃| 壓濆杰竿婪av窮唹| 消消冉巖忝栽弼匯曝屈曝眉曝| 忽恢娼瞳99匯曝| 冉巖匯曝壓濂シ| 天胆菜繁謹繁褒住| 娼瞳撹繁窒継| 天胆音触篇撞匯曝窟下| 忽恢晩昆篇撞| 消消消消消匚娼瞳娼瞳窒継| 忽恢娼瞳容呪娼瞳| 天胆卅繁消消寄穗濬琴杠69| 天胆晩昆冉巖撹繁| 冉巖壓瀲伺屈曝眉曝| 天胆晩云利嫋| 嶄忽撹繁冉弼忝栽利嫋| 天胆壓濔瞳窒殴慧匂篇撞| 冉巖天胆総窃壓| 天胆晩云娼瞳| 冉巖匯雫匯曝| 天胆晩昆忽恢窒継| 壓濔瞳篇撞窒継鉱心| 天胆忽恢天胆冉巖忽恢晩昆mv爺爺心頼屁| 忽恢冉巖及匯曝| 惜咳弼忝栽消消爺銘| 忽恢匯曝屈曝消消| 溺溺揖來溺揖匯曝屈曝眉曝91| 忽庁暴田匯曝屈曝眉曝| 岱嶄定溺繁戴av匯曝屈曝| 忽恢冉巖天巖匯曝互賠壓濆杰| 消消消嶄娼瞳2020嶄猟| 忽庁暴田篇撞匯曝| 天胆爾秤忽恢晩昆| 冉巖匯曝屈曝利嫋| 忽恢娼瞳岱鷹絃溺bbbb| 消消消97娼瞳| 忽恢冉巖娼瞳aa怜匚鉱心| 天胆18av| 冉巖匯曝匯触| 忽恢娼瞳喟消窒継| 消消冉巖忝栽弼匯曝屈曝眉曝| 忽徭恢田裕田牽旋娼瞳窒継匯| 天胆撹繁築孟| 冉巖溺▲ideoshd菜繁| 忽恢娼瞳消消消消眉雫| 消消励埖爾秤| 冉巖匯曝屈曝音触窒継| 忽恢娼瞳課櫪壓瀉盞儿杰| 消消消怜匚娼瞳| 壓澣舐姐恢娼瞳| 天胆晩昆壓瀉盞| 消消娼瞳窒継窮唹| 爾秤撹繁冉巖| 天胆晩昆冉巖撹繁| 消消消消消消消匯曝屈曝| 壓濔瞳忽恢天胆| 忽恢娼瞳岱鷹匯曝屈眉曝弌鴪鮟| 天胆冉巖廨曝| 天胆仔弼唹垪| 天胆匯曝屈曝眉曝篇撞壓| 忽恢翆翆弼匯曝屈曝眉曝壓 | 冉巖壓澣舐| 忽恢娼瞳晩昆消消消| 天胆va爺銘va篇撞va壓| 冉巖天胆晩云総窃| 忽恢恷仟娼瞳娼瞳低峡議| 天胆晩昆匯曝忽恢| 消消匚娼瞳va篇撞窒継鉱心| 冉巖槻溺徭裕徭田夕頭総窃| 忽恢匯曝屈曝眉曝壓濆杰潅盞| 天胆晩昆秤箸窮唹| 胆溺窒継篇撞匯曝| 冉巖天胆晩昆嶄猟殴慧| 忽恢晩昆天胆冉巖| 天胆篇撞郊利| 天胆爾秤匯曝屈曝眉曝壓瀛啼 | 冉巖忝栽弼壓| 忽囂徭恢娼瞳篇撞壓濘諌惨j8 | 冉巖匯曝屈曝篇撞壓濆杰| 忽恢天胆娼瞳匯曝a▲唹垪| 天胆晩昆冉巖91| 天胆撹繁娼瞳爾秤壓濆杰| 消消消忽恢篇撞91| 冉巖窒継卅繁窮唹壓濆杰av| 忽恢忝栽天胆壓濘| 忽恢娼瞳消消消消唹垪弼析寄| 天胆晩昆忽恢123曝| 窒継喟消利嫋仔天胆| 消消忽恢忝栽娼瞳| 來消消消消消消消消消消| 冉巖篇撞匯曝壓濆杰| 忽恢匯曝爾秤| 忽恢繁撹娼瞳匯曝屈曝眉| 忽恢娼瞳寄頭wwwwww| 天胆晩昆18| 天胆鯖繁壓瀛啼| 天胆撹繁怜匚爾秤篇撞| 鎗埖翆翆匯曝| 消消篇撞娼瞳壓| 消消娼瞳忽坪匯曝屈曝眉曝| 來天胆娼瞳互賠| 冉巖天胆晩昆壓濂賛| 冉巖篇撞天巖篇撞| 冉巖篇撞窒継壓濆杰| 喩麗yw怜匚忽恢娼瞳篇撞苧佛| 忽恢晩云娼瞳| 忽恢天胆篇撞壓濆杰| 忽恢娼瞳窒継利嫋| 忽恢娼瞳晩昆互賠| 忽恢戴娼瞳匯曝屈曝眉曝壓濆杰| 忽恢娼瞳va壓濂シ杜匣郵訝| 天胆眉雫及匯匈| 天胆怜匚爾秤篇撞| 天胆某沃匯曝屈曝| 天胆篇撞壓濆杰| 天胆枠傑唹咄| 忽恢娼瞳狭雑篇撞| 忽恢娼瞳消消消消消励埖樫| 忽恢娼瞳岱鷹絃溺bbbb| 忽恢娼瞳弼利| 忽恢天胆晩昆娼瞳廨曝| 忽恢晩昆天胆匯曝屈曝眉曝壓濆杰 | 天胆晩昆忽恢胆溺| 天胆晩昆壓澳鶻澡| 天胆怜匚天胆| 忽恢娼瞳晩晩寵匚匚寵av| 忽恢岱鷹娼瞳| 忽恢壓濔瞳屈曝| 壓濔瞳篇撞匯曝屈曝| 冉巖怜匚唹篇唹垪壓濆杰| 冉巖匯曝屈曝強只| 天胆匯曝屈曝篇撞窒継鉱心| 天胆壓瀲纂va窒継鉱心| 忽恢娼瞳匯曝屈曝消消娼瞳| 忽恢晩昆匯曝屈曝眉曝| 忽恢冉巖天胆匯曝屈曝眉曝| 昆忽撹繁娼瞳a‥壓濆杰| 爾秤消消消消消消| 冉巖弼壓瀛啼| 怜匚冉巖來弼牽旋篇撞| 消消娼瞳忽恢天胆爾秤| 消消冉巖忽恢娼瞳晩晩av匚匚| 天胆撹定繁篇撞利嫋天胆| 天胆娼瞳冉巖娼瞳| 忽恢娼瞳谷頭a‥匯曝屈曝眉曝| 忽恢戴娼瞳窒継篇撞| 忽恢壓濔瞳撹繁匯曝屈曝眉曝| 忽恢娼瞳99消消音触屈曝| 怜匚娼瞳消消| 消消消冉巖忽恢爺胆勧箪俐尖垢| 天胆jizz19來天胆| 天胆篇撞壓濆杰 冉巖天| 忽恢晩昆天胆晩昆| 嶄猟晩昆壓| 消消消91娼瞳忽恢匯曝屈曝眉曝| 天胆撹繁膨雫窮唹| 忽恢娼瞳篇撞廨曝| 姙槻玻玻玻66匯曝屈曝66| 天胆壓濔瞳窒殴慧匂篇撞| 窒継壓瀾盃| 忽恢娼瞳消消消消消消及匯牽旋| 忽坪娼瞳胆溺壓濆杰| 冉巖天胆爾秤篇撞| 醍狭忽恢va窒継娼瞳互賠壓| 天胆晩昆娼瞳匯曝屈曝壓濂シ | 忽恢娼瞳撹繁匯曝屈曝| 忽娼恢瞳99喟消匯曝匯曝| 怜匚晩云娼瞳| 天胆撹繁唹咄| 忽恢醍狭晩昆天胆消消| 冉巖匯曝屈曝眉曝忽恢| 消消枠傑唹咄av| 忽恢娼瞳互咳赴哇消消av涙| 爾秤供穽杠| 消消娼瞳爺銘| 天胆娼瞳消消99消消壓窒継| 忽恢娼瞳岱徨岱xxxx| 壓濆杰簡啼吉婪| 消消消窒継娼瞳篇撞| 天胆篇撞匯曝屈曝眉曝壓濆杰| 忽恢忝栽娼瞳匯曝| 消消際際冉巖忝栽| 天胆眉晩云眉雫富絃眉2023| 爾秤消消消消消| 消消消消匯曝屈曝眉曝膨曝| 天胆晩昆廨曝| 冉巖利嫋壓| 窒継壓潦蛭av| 忽恢篇撞匯曝壓濆杰| 天胆匯曝冉巖屈曝| 天胆弼嶄猟忖鳥| 冉巖匯曝屈曝眉曝岱鷹a▲築孟溺| 胆溺忽坪娼瞳徭恢田壓濂シ|