性xx色动画xx无尽,国产精品三级av三级av三级 ,中文在线√天堂,亚洲国产成人久久一区久久,亚洲熟妇色l20p

當前位置 : 首頁  圖書 正文

深度學習之美:AI時代的數(shù)據(jù)處理與最佳實踐簡介,目錄書摘

2021-01-15 10:02 來源:京東 作者:京東
ai
深度學習之美:AI時代的數(shù)據(jù)處理與最佳實踐
暫無報價
8.5萬+評論 99%好評
編輯推薦:

√零入門。本書在介紹深度學習時,也介紹了Python、TensorFlow、M-P模型、感知機等神經(jīng)網(wǎng)絡等基礎知識,從而可以讓讀者零基礎入門。

√高可讀。有別于其他同類書籍的深奧難懂,本書配合近300幅手繪圖片,一圖勝千言,輔以大量的哲理故事,通俗易懂,獨辟蹊徑。

√重實戰(zhàn)。除了理論部分的講解不落窠臼,本書還重視實戰(zhàn),列舉了大量具有啟發(fā)意義的實戰(zhàn)案例,循序漸進,讓讀者通過實戰(zhàn)獲得成就感。

√抓前沿。本書緊抓領域前沿,Geoffrey Hinton的新研究成果——神經(jīng)膠囊網(wǎng)絡,本書詳細解讀,輔以實戰(zhàn),讓讀者能夠站在科研前沿。


內(nèi)容簡介:

深度學習是人工智能的前沿技術。《深度學習之美》深入淺出地介紹了深度學習的相關理論和實踐,《深度學習之美》共分16章,采用理論和實踐雙主線寫作方式。第1章給出深度學習的大圖。第2章和第3章,講解了機器學習的相關基礎理論。第4章和第5章,講解了Python基礎和基于Python的機器學習實戰(zhàn)。第6至10章,先后講解了M-P模型、感知機、多層神經(jīng)網(wǎng)絡、BP神經(jīng)網(wǎng)絡等知識。第11章講解了被廣泛認可的深度學習框架TensorFlow。第12章和第13章詳細講解了卷積神經(jīng)網(wǎng)絡,并給出了相關的實戰(zhàn)項目。第14章和第15章,分別講解了循環(huán)遞歸網(wǎng)絡和長短期記憶(LSTM)網(wǎng)絡。第16章講解了神經(jīng)膠囊網(wǎng)絡,并給出了神經(jīng)膠囊網(wǎng)絡設計的詳細論述和實踐案例分析。

《深度學習之美》結(jié)構(gòu)完整、行文流暢,是一本難得的零基礎入門、圖文并茂、通俗易懂、理論結(jié)合實戰(zhàn)的深度學習書籍。


作者簡介:

張玉宏,2012年于電子科技大學取得博士學位,2009—2011年美國西北大學訪問學者,電子科技大學博士后,現(xiàn)執(zhí)教于河南工業(yè)大學。

中國計算機協(xié)會(CCF)會員,CCF YOCSEF鄭州2018—2019年度副主席,ACM/IEEE會員?!镀肺洞髷?shù)據(jù)》一書作者。主要研究方向為大數(shù)據(jù)、人工智能、技術哲學。發(fā)表學術論文20余篇,國內(nèi)外學術作品7部。阿里云云棲社區(qū)專欄作家,博文累計閱讀逾百萬次。


目錄:

第1章  一入侯門“深”似海,深度學習深幾許  1

1.1  深度學習的巨大影響  2

1.2  什么是學習  4

1.3  什么是機器學習  4

1.4  機器學習的4個象限  5

1.5  什么是深度學習  6

1.6  “戀愛”中的深度學習  7

1.7  深度學習的方法論  9

1.8  有沒有淺層學習  13

1.9  本章小結(jié)  14

1.10  請你思考  14

參考資料  14

第2章  人工“碳”索意猶盡,智能“硅”來未可知  16

2.1  信數(shù)據(jù)者得永生嗎  17

2.2  人工智能的“江湖定位”  18

2.3  深度學習的歸屬  19

2.4  機器學習的形式化定義  21

2.5  為什么要用神經(jīng)網(wǎng)絡  24

2.6  人工神經(jīng)網(wǎng)絡的特點  26

2.7  什么是通用近似定理  27

2.8  本章小結(jié)  31

2.9  請你思考  31

參考資料  31

第3章  “機器學習”三重門,“中庸之道”趨若人  33

3.1  監(jiān)督學習  34

3.1.1  感性認知監(jiān)督學習  34

3.1.2  監(jiān)督學習的形式化描述  35

3.1.3  k-近鄰算法  37

3.2  非監(jiān)督學習  39

3.2.1  感性認識非監(jiān)督學習  39

3.2.2  非監(jiān)督學習的代表—K均值聚類  41

3.3  半監(jiān)督學習  45

3.4  從“中庸之道”看機器學習  47

3.5  強化學習  49

3.6  本章小結(jié)  52

3.7  請你思考  53

參考資料  53

第4章  人生苦短對酒歌, 我用Python樂趣多  55

4.1  Python概要  56

4.1.1  為什么要用Python  56

4.1.2  Python中常用的庫  58

4.2  Python的版本之爭  61

4.3  Python環(huán)境配置  65

4.3.1  Windows下的安裝與配置  65

4.3.2  Mac下的安裝與配置  72

4.4  Python編程基礎  76

4.4.1  如何運行Python代碼  77

4.4.2  代碼縮進  79

4.4.3  注釋  80

4.4.4  Python中的數(shù)據(jù)結(jié)構(gòu)  81

4.4.5  函數(shù)的設計  93

4.4.6  模塊的導入與使用  101

4.4.7  面向?qū)ο蟪绦蛟O計  102

4.5  本章小結(jié)  112

4.6  請你思考  112

參考資料  113

第5章  機器學習終覺淺,Python帶我來實踐  114

5.1  線性回歸  115

5.1.1  線性回歸的概念  115

5.1.2  簡易線性回歸的Python實現(xiàn)詳解  119

5.2  k-近鄰算法  139

5.2.1  k-近鄰算法的三個要素  140

5.2.2  k-近鄰算法實戰(zhàn)  143

5.2.3  使用scikit-learn實現(xiàn)k-近鄰算法  155

5.3  本章小結(jié)  162

5.4  請你思考  162

參考資料  162

第6章  神經(jīng)網(wǎng)絡不勝語,M-P模型似可尋  164

6.1  M-P神經(jīng)元模型是什么  165

6.2  模型背后的那些人和事  167

6.3  激活函數(shù)是怎樣的一種存在  175

6.4  什么是卷積函數(shù)  176

6.5  本章小結(jié)  177

6.6  請你思考  178

參考資料  178

第7章  Hello World感知機,懂你我心才安息  179

7.1  網(wǎng)之初,感知機  180

7.2  感知機名稱的由來  180

7.3  感性認識“感知機”  183

7.4  感知機是如何學習的  185

7.5  感知機訓練法則  187

7.6  感知機的幾何意義  190

7.7  基于Python的感知機實戰(zhàn)  191

7.8  感知機的表征能力  196

7.9  本章小結(jié)  199

7.10  請你思考  199

參考資料  199

第8章  損失函數(shù)減肥用,神經(jīng)網(wǎng)絡調(diào)權重  201

8.1  多層網(wǎng)絡解決“異或”問題  202

8.2  感性認識多層前饋神經(jīng)網(wǎng)絡  205

8.3  是淺而“胖”好,還是深而“瘦”佳  209

8.4  分布式特征表達  210

8.5  丟棄學習與集成學習  211

8.6  現(xiàn)實很豐滿,理想很骨感  212

8.7  損失函數(shù)的定義  213

8.8  熱力學定律與梯度彌散  215

8.9  本章小結(jié)  216

8.10  請你思考  216

參考資料  217

第9章  山重水復疑無路,最快下降問梯度  219

9.1  “鳥飛派”還飛不  220

9.2  1986年的那篇神作  221

9.3  多層感知機網(wǎng)絡遇到的大問題  222

9.4  神經(jīng)網(wǎng)絡結(jié)構(gòu)的設計  225

9.5  再議損失函數(shù)  227

9.6  什么是梯度  229

9.7  什么是梯度遞減  231

9.8  梯度遞減的線性回歸實戰(zhàn)  235

9.9  什么是隨機梯度遞減  238

9.10  利用SGD解決線性回歸實戰(zhàn)  240

9.11  本章小結(jié)  247

9.12  請你思考  248

參考資料  248

第10章  BP算法雙向傳,鏈式求導最纏綿  249

10.1  BP算法極簡史  250

10.2  正向傳播信息  251

10.3  求導中的鏈式法則  255

10.4  誤差反向傳播  264

10.4.1  基于隨機梯度下降的BP算法  265

10.4.2  輸出層神經(jīng)元的權值訓練  267

10.4.3  隱含層神經(jīng)元的權值訓練  270

10.4.4  BP算法的感性認知  273

10.4.5  關于BP算法的補充說明  278

10.5  BP算法實戰(zhàn)詳細解釋  280

10.5.1  初始化網(wǎng)絡  280

10.5.2  信息前向傳播  282

10.5.3  誤差反向傳播  285

10.5.4  訓練網(wǎng)絡(解決異或問題)  288

10.5.5  利用BP算法預測小麥品種的分類  293

10.6  本章小結(jié)  301

10.7  請你思考  302

參考資料  304

第11章  一騎紅塵江湖笑,TensorFlow谷歌造  305

11.1  TensorFlow概述  306

11.2  深度學習框架比較  309

11.2.1  Theano  309

11.2.2  Keras  310

11.2.3  Caffe  311

11.2.4  PyTorch  312

11.3  TensorFlow的安裝  313

11.3.1  Anaconda的安裝  313

11.3.2  TensorFlow的CPU版本安裝  315

11.3.3  TensorFlow的源碼編譯  323

11.4  Jupyter Notebook的使用  331

11.4.1  Jupyter Notebook的由來  331

11.4.2  Jupyter Notebook的安裝  333

11.5  TensorFlow中的基礎語法  337

11.5.1  什么是數(shù)據(jù)流圖  338

11.5.2  構(gòu)建第一個TensorFlow數(shù)據(jù)流圖  339

11.5.3  可視化展現(xiàn)的TensorBoard  342

11.5.4  TensorFlow的張量思維  346

11.5.5  TensorFlow中的數(shù)據(jù)類型  348

11.5.6  TensorFlow中的操作類型  353

11.5.7  TensorFlow中的Graph對象  356

11.5.8  TensorFlow中的Session  358

11.5.9  TensorFlow中的placeholder  361

11.5.10  TensorFlow中的Variable對象  363

11.5.11  TensorFlow中的名稱作用域  365

11.5.12  張量的Reduce方向  367

11.6  手寫數(shù)字識別MNIST  372

11.6.1  MNIST數(shù)據(jù)集簡介  373

11.6.2  MNIST數(shù)據(jù)的獲取與預處理  375

11.6.3  分類模型的構(gòu)建—Softmax Regression  378

11.7  TensorFlow中的Eager執(zhí)行模式  394

11.7.1  Eager執(zhí)行模式的背景  394

11.7.2  Eager執(zhí)行模式的安裝  395

11.7.3  Eager執(zhí)行模式的案例  395

11.7.4  Eager執(zhí)行模式的MNIST模型構(gòu)建  398

11.8  本章小結(jié)  401

11.9  請你思考  402

參考資料  403

第12章  全面連接困何處,卷積網(wǎng)絡顯神威  404

12.1  卷積神經(jīng)網(wǎng)絡的歷史  405

12.1.1  眼在何方?路在何方?  405

12.1.2  卷積神經(jīng)網(wǎng)絡的歷史脈絡  406

12.1.3  那場著名的學術賭局  410

12.2  卷積神經(jīng)網(wǎng)絡的概念  412

12.2.1  卷積的數(shù)學定義  412

12.2.2  生活中的卷積  413

12.3  圖像處理中的卷積  414

12.3.1  計算機“視界”中的圖像  414

12.3.2  什么是卷積核  415

12.3.3  卷積在圖像處理中的應用  418

12.4  卷積神經(jīng)網(wǎng)絡的結(jié)構(gòu)  420

12.5  卷積層要義  422

12.5.1  卷積層的設計動機  422

12.5.2  卷積層的局部連接  427

12.5.3  卷積層的3個核心概念  428

12.6  細說激活層  434

12.7  詳解池化層  442

12.8  勿忘全連接層  445

12.9  本章小結(jié)  446

12.10  請你思考  447

參考資料  448

第13章  紙上談兵終覺淺,絕知卷積要編程  450

13.1  TensorFlow的CNN架構(gòu)  451

13.2  卷積層的實現(xiàn)  452

13.3  激活函數(shù)的使用  460

13.4  池化層的實現(xiàn)  466

13.5  規(guī)范化層  470

13.6  卷積神經(jīng)網(wǎng)絡在MNIST分類器中的應用  480

13.7  經(jīng)典神經(jīng)網(wǎng)絡——AlexNet的實現(xiàn)  488

13.8  本章小結(jié)  495

13.9  請你思考  496

參考資料  496

第14章  循環(huán)遞歸RNN,序列建模套路深  498

14.1  你可能不具備的一種思維  499

14.2  標準神經(jīng)網(wǎng)絡的缺陷所在  501

14.3  RNN簡史  502

14.4  RNN的理論基礎  506

14.5  RNN的結(jié)構(gòu)  509

14.6  循環(huán)神經(jīng)網(wǎng)絡的訓練  512

14.7  基于RNN的TensorFlow實戰(zhàn)——正弦序列預測  514

14.8  本章小結(jié)  524

14.9  請你思考  524

參考資料  525

第15章  LSTM長短記,長序依賴可追憶  526

15.1  遺忘是好事還是壞事  527

15.2  施密德胡伯是何人  527

15.3  為什么需要LSTM  529

15.4  拆解LSTM  530

15.5  LSTM的前向計算  533

15.6  LSTM的訓練流程  539

15.7  自然語言處理的一個假設  540

15.8  詞向量表示方法  542

15.9  自然語言處理的統(tǒng)計模型  549

15.10  基于Penn Tree Bank的自然語言處理實戰(zhàn)  560

15.11  本章小結(jié)  579

15.12  請你思考  580

參考資料  580

第16章  卷積網(wǎng)絡雖動人,膠囊網(wǎng)絡更傳“神”  583

16.1  從神經(jīng)元到神經(jīng)膠囊  584

16.2  卷積神經(jīng)網(wǎng)絡面臨的挑戰(zhàn)  584

16.3  神經(jīng)膠囊的提出  588

16.4  神經(jīng)膠囊理論初探  591

16.5  神經(jīng)膠囊的實例化參數(shù)  594

16.6  神經(jīng)膠囊的工作流程  598

16.7  CapsNet的驗證與實驗  614

16.8  神經(jīng)膠囊網(wǎng)絡的TensorFlow實現(xiàn)  618

16.9  本章小結(jié)  644

16.10  請你思考  645

16.11  深度學習美在何處  646

參考資料  647

后記  648

索引  651


版面有限,完整目錄請見本書

熱門推薦文章
相關優(yōu)評榜
品類齊全,輕松購物 多倉直發(fā),極速配送 正品行貨,精致服務 天天低價,暢選無憂
購物指南
購物流程
會員介紹
生活旅行/團購
常見問題
大家電
聯(lián)系客服
配送方式
上門自提
211限時達
配送服務查詢
配送費收取標準
海外配送
支付方式
貨到付款
在線支付
分期付款
郵局匯款
公司轉(zhuǎn)賬
售后服務
售后政策
價格保護
退款說明
返修/退換貨
取消訂單
特色服務
奪寶島
DIY裝機
延保服務
京東E卡
京東通信
京東JD+