當前位置:
首頁 > 最新 > 你餓不餓?我打包了兩個套餐給你

你餓不餓?我打包了兩個套餐給你

--2017年8月,歷時半年,終於死命催老師研磨出了數據科學核心課程:《數據分析師入門》;

--2017年11月,反覆打磨重錄n遍的《python爬蟲:入門+實戰》上線;

--2018年3月,《python編程零基礎入門》課程也穩穩噹噹終於沒有什麼幺蛾子地上線了;

看到這個時間線,

你可能會問了(不想問我也要回答):

《python編程零基礎入門》顯然是數據分析和爬蟲的前置基礎課程,

但是為什麼上線在其後?

其實這門課程原本不在我們的研發課程隊列中,

是個美麗的意外,還不都是學員的強強強強烈的要求

不然可能數據分析進階和機器學習已經出爐了,

但,誰讓我們賣課的小姐姐只愛學員,

每次的公司例會都以「應同學們的強烈要求……」為開頭拉都拉不住。

這次的例會上,雖然不是什麼粉絲日、節假日、狂歡日、紀念日,

但小姐姐還是勇敢發聲:

「應同學們其實沒幾個的強烈要求,課程…可…以…打個骨骨骨折么?」

心驚膽戰顫顫巍巍小心翼翼地跪著說完。

果然……

老闆給出了尷尬而不失禮貌的微笑並且扣光了下半個月的預算。

但,

誰讓小姐姐是個一心只為學員著想自己答應了,哭著也要完成的好人,

就算沒預算,也要搞活動,

所以,小姐姐打包了兩個超具性價比的套餐回來,一次性解決學習路徑問題。

即:一次性付款,獲得兩門課程。套餐如下:

套餐一

套餐一:爬蟲方向

《python編程零基礎入門》+《python爬蟲:入門+實戰》=¥439(原價798)

套餐一購買:長按下方二維碼

套餐二

套餐二:數據分析方向

《python編程零基礎入門》+《數據分析師(入門)》=¥599(原價998)

套餐二購買:長按下方二維碼

三門課程,兩種技術方向的組合,一次性滿足你的需求,

我們永遠不放過放棄任何一個需要從零入門的選手,關鍵是這次真便宜,

年僅一次,放血限量供應。

長按下方二維碼即可

以下分別是三門課程的目錄,還有太多的課程亮點懶得寫還請進官網查看喲

《Python編程零基礎入門》大綱

第一章:Python介紹和安裝

Python簡介;特點以及應用;編程環境的搭建及IDE的使用

實踐練習1—安裝Anaconda,並且熟悉spyder。

第二章:Python基礎知識

1) Python變數賦值及數據類型

2) Python數值及方法

3) Python字元串及方法

4) Python數據結構:列表、元組的操作

5) Python數據結構:字典、集合的操作

實踐練習2—通過使用Python支持的字典,列表和元組的數據結構,實現:通訊錄的操作,創建、添加、查找等內容,通訊錄信息包含姓名、電話、性別、愛好等。

第三章:Python語句、關鍵字以及內存管理

1) 條件語句

2) 循環語句

3) 循環控制語句

4) 關鍵字介紹

5) 變數的高級--內存管理

實踐練習3—編寫小程序,對上一節作業的通訊錄進行功能增強,實現:查找電話號碼主人,喜歡吃蘋果的人等。

第四章:Python函數

1) 函數及函數定義

2) 函數的參數/全局變數和局部變數

3) 內建函數及遞歸

4) 匿名函數

5) 函數式編程:map/reduce/filter/sorted/偏函數

實踐練習4—編寫一個函數,實現:通訊錄的更新,定義添加成員的函數、電話查找、興趣查找等功能

第五章:Python高級特性及編程規範

1) 列表生成式

2) 迭代器

3) 生成器

4) 裝飾器

5) Python編程規範

實踐練習5—小程序:高級功能——判斷輸入是否合法的裝飾器功能的使用。涵蓋內容:學習生成器及裝飾器的使用,給多個函數添加判斷合法性的裝飾器。

第六章:模塊的使用

1) 模塊名稱空間和導入

2) 模塊的執行

3) os和sys模塊介紹和使用

4) 第三方模塊的安裝

實踐練習6—函數編寫,實現:文件查找和拷貝功能。

第七章:面向對象編程

1) 類與面向對象設計OOP

2) 多態、繼承和封裝

3) 類裝飾器

第八章:異常、錯誤類型及編碼

1) 異常和捕捉異常

2) try-except語句和結構

3) 排查錯誤方法

4) 編碼方式介紹

第九章:文件處理

1) 文件內建方法:打開和讀寫

2) 文件的存儲模塊:pickle和marshal

3) Json文件的使用場景及解析

實踐練習7—編寫一個腳本,實現:查找讀取傳遞XXX.json文件中的內容,json文件中內容包含:主機IP、名字、所在地等信息。

第十章:正則表達式

1) 特殊的符號和數字

2) 正則表達式與python

3) Re模塊

實踐練習8—繼續練習6內容,編寫一個函數,實現:查找tmp文件中pass字元串。

第十一章:時間與日誌

1) Time模塊的使用

2) Log模塊的使用

卡片裡面大綱內容可以滑動

《Python爬蟲:入門+進階》大綱

第一章:Python 爬蟲入門

1、什麼是爬蟲

網址構成和翻頁機制

網頁源碼結構及網頁請求過程

爬蟲的應用及基本原理

2、初識Python爬蟲

Python爬蟲環境搭建

創建第一個爬蟲:爬取百度首頁

爬蟲三步驟:獲取數據、解析數據、保存數據

3、使用Requests爬取豆瓣短評

Requests的安裝和基本用法

用Requests 爬取豆瓣短評信息

一定要知道的爬蟲協議

4、使用Xpath解析豆瓣短評

解析神器Xpath的安裝及介紹

Xpath的使用:瀏覽器複製和手寫

實戰:用 Xpath 解析豆瓣短評信息

5、使用pandas保存豆瓣短評數據

pandas 的基本用法介紹

pandas文件保存、數據處理

實戰:使用pandas保存豆瓣短評數據

6、瀏覽器抓包及headers設置(案例一:爬取知乎)

爬蟲的一般思路:抓取、解析、存儲

瀏覽器抓包獲取Ajax載入的數據

設置headers 突破反爬蟲限制

實戰:爬取知乎用戶數據

7、數據入庫之MongoDB(案例二:爬取拉勾)

MongoDB及RoboMongo的安裝和使用

設置等待時間和修改信息頭

實戰:爬取拉勾職位數據

將數據存儲在MongoDB中

補充實戰:爬取微博移動端數據

8、Selenium爬取動態網頁(案例三:爬取淘寶)

動態網頁爬取神器Selenium搭建與使用

分析淘寶商品頁面動態信息

實戰:用Selenium 爬取淘寶網頁信息

第二章:Python爬蟲之Scrapy框架

1、爬蟲工程化及Scrapy框架初窺

html、css、js、資料庫、http協議、前後台聯動

爬蟲進階的工作流程

Scrapy組件:引擎、調度器、下載中間件、項目管道等

常用的爬蟲工具:各種資料庫、抓包工具等

2、Scrapy安裝及基本使用

Scrapy安裝

Scrapy的基本方法和屬性

開始第一個Scrapy項目

3、Scrapy選擇器的用法

常用選擇器:css、xpath、re、pyquery

css的使用方法

xpath的使用方法

re的使用方法

pyquery的使用方法

4、Scrapy的項目管道

Item Pipeline的介紹和作用

Item Pipeline的主要函數

實戰舉例:將數據寫入文件

實戰舉例:在管道里過濾數據

5、Scrapy的中間件

下載中間件和蜘蛛中間件

下載中間件的三大函數

系統默認提供的中間件

6、Scrapy的Request和Response詳解

Request對象基礎參數和高級參數

Request對象方法

Response對象參數和方法

Response對象方法的綜合利用詳解

第三章:Python爬蟲進階操作

1、網路進階之谷歌瀏覽器抓包分析

http請求詳細分析

網路面板結構

過濾請求的關鍵字方法

複製、保存和清除網路信息

查看資源發起者和依賴關係

2、數據入庫之去重與資料庫

數據去重

數據入庫MongoDB

第四章:分散式爬蟲及實訓項目

1、大規模並發採集——分散式爬蟲的編寫

分散式爬蟲介紹

Scrapy分散式爬取原理

Scrapy-Redis的使用

Scrapy分散式部署詳解

2、實訓項目(一)——58同城二手房監控

3、實訓項目(二)——去哪兒網模擬登陸

4、實訓項目(三)——京東商品數據抓取

卡片裡面大綱內容可以滑動

《數據分析師(入門)》大綱

第一章:開啟數據分析之旅

1) 數據分析的一般流程及應用場景

2) Python 編程環境的搭建及數據分析包的安裝

第二章:獲取你想要的數據

1) 獲取互聯網上的公開數據集

2) 用網站 API 爬取網頁數據

3) 爬蟲所需的 HTML 基礎

4) 基於 HTML 的爬蟲,Python(Beautifulsoup)實現

5) 網路爬蟲高級技巧:使用代理和反爬蟲機制

6) 應用案例:爬取豆瓣 TOP250 電影信息並存儲

第三章:數據存儲與預處理

1) 資料庫及 SQL 語言概述

2) 基於 HeidiSQL 的資料庫操作

3) 資料庫進階操作:數據過濾與分組聚合

4) 用 Python 進行資料庫連接與數據查詢

5) 其他類型資料庫:SQLite&MongoDB

6) 用 Pandas 進行數據預處理:數據清洗與可視化

第四章:統計學基礎與 Python 數據分析

1)探索型數據分析:繪製統計圖形展示數據分布

2)通過統計圖形探究數據分布的潛在規律

3)描述統計學:總體、樣本和誤差,基本統計量

4)推斷統計學:概率分布和假設檢驗

5)在實際分析中應用不同的假設檢驗

6)預測型數據分析:線性回歸

7)Python中進行線性回歸(scikit-learn實現)

8) 預測型數據分析:分類及邏輯回歸

9) 其它常用演算法(k近鄰、決策樹、隨機森林)

10) 預測型數據分析:聚類演算法(k均值、DBSCAN)

11) 用特徵選擇方法優化模型

12) 用 scikit-learn 實現數據挖掘建模全過程

13) 用 rapidminer 解決商業分析關鍵問題

14) 高級數據分析工具:機器學習、深度學習初探

第五章 報告撰寫及課程總結

1) 養成數據分析的思維

2) 數據分析的全流程及報告撰寫的技巧

3) 課程回顧以及一些拓展

卡片裡面大綱內容可以滑動


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 DataCastle 的精彩文章:

python中通過RF預測紅酒質量初探

TAG:DataCastle |