西門子系統集商-上海煥拓自動控制有限公司

深爱激情网內容

當前位置:西門子PLC > 深爱激情网內容 > 优质产能不足 国内动力电池深爱激情网将面临洗牌 > 正文

优质产能不足 国内动力电池深爱激情网将面临洗牌

西门子深爱激情网內容   查阅次数:2600   更新时间: 2019-07-10 17:30

“到2020年國家對于動力锂離子電池能量密度的指標是300Wh/kg,中國動力電池企業急需創新發展,隨著國家補貼的退坡,電池深爱激情网將面臨新一輪洗牌。”中國工程院院士吳鋒研判到。

近日,北京理工大學教授、中國工程院院士吳鋒在2019世界新能源汽車大會發表了主題演講。

吳鋒表示,2017-2018年,國內動力電池集中度日趨攀升,且集中在少數企業手中,隨著國家補貼的退坡,且在衆多外力因素作用之下,國內動力電池企業下一步將面臨新一輪洗牌,可能會有比較大的動靜。

技術進展方面,到2020年國家對于動力锂離子電池能量密度的指標是300Wh/kg,現在一些電池企業已經初步達到了這個指標,還在進一步提高綜合性能。目前,北理工吳鋒團隊從電池材料到電池系統以及對新型材料的技術研究都在不斷進步中。

正極材料方面,其將新一代高比能锂離子電池正極材料的研發重點放在了富锂錳基材料方面。

“北京大学等单位在高比容富锂锰基材料研究方面取得了突破。我们团队在仿生膜设计,通过界面保护提高材料稳定性,构筑选择性锂离子通道,提高材料倍率性能方面也进行了一系列的研究。” 吴锋表示。

新型負極材料方面,團隊進行了無集流體,無黏結劑電極方面的嘗試,可以提供更多電化學位點,從而提高電極比容量。

在锂硫電池正極材料方面,其利用雙“費歇爾酯化”的模塊組裝方法,將分散的導電碳組裝爲橢球型的微米超結構,顯著提高了正極單位面積的硫載量,電池能量密度達到545Wh/kg。

在動力電池安全性方面,團隊從材料入手,包括研制出溫度敏感電極、陶瓷高強隔膜、安全電解質等顯著提高了電池的夲征安全性。還研制出基于納米TiO2與離子液體的新一代凝膠固態電解質,具有高室溫電導率與顯著的安全性。

在系統安全性方面,基于其提出的電池安全阈值邊界的識別與控制概念,建立了相關的安全狀態的數學模型,通過建立這個數學模型,可以將量化的安全度實時顯示在電動汽車儀表盤,給司機提供可視化的安全預警。

在動力電池回收再生和再利用方面,我們研發出天然有機酸綠色高效回收技術,钴、锂、鎳的浸取率達到92%以上。把回收過來的材料再做成正極,並符合正極材料的要求,這形成一個內循環,從廢舊正極的回收到正極材料的再生。

外循環方面,像廢舊電池的負極,由于碳價格不高,團隊將碳回收,做成了碳吸附劑,可以用來吸附磷,高達588mg/g,把這種吸附劑放在太湖、滇池等嚴重磷汙染的湖水中,能夠處理汙水,再把處理後的含磷吸附劑,放到土壤裏,作爲磷肥緩緩釋劑,形成一個外循環,因爲這個需求量也很大。

吳鋒認爲,在動力電池技術發展方面,今後主要還是集中在提高安全性、提升比能量,提高壽命、控制成本方面,當然壽命和成本本身也是密切相關的。

高比能正極材料方面,目前低钴是大趨勢。富锂錳基是下一代高比能锂離子電池的主要正極材料,因爲在研究當中發現,在這個體系裏,氧參與了反應,也就是說從單電子上升爲多電子反應,爲锂離子電池能量密度的大幅度提升提供了材料基礎。

新型負極材料方面,矽碳複合還是研發重點,純矽還要再遠一點。負極材料在納米化方面還有很多研究的空間。

電解質方面,作爲影響锂離子安全的主要因素之一,電解質在向固態化方向發展,目前還達不到全固態,北理工團隊研制出新型仿生蟻穴結構的新型離子凝膠電解質,在锂金屬表面形成保護層,可有效抑制锂枝晶生長。電池材料在仿生方面的研究有利于電池本身的綠色化。

隔膜方面,動力電池隔膜需要高穩定性,在保證強度的基礎上,有待進一步輕質和薄型化。

“動力電池正邁向固態化時代,現在硫化合物和聚合物的結合還是比較看好的,但是我總覺得還是一步一步來,從准固態向固態發展。”吳峰強調。

動力電池梯次利用方面,大型儲能系統所需的管理電池是動力電池數量的幾百倍甚至更多,針對于退役動力電池的一致性和先進的電池管理控制軟件系統提出了更高的要求和挑戰。

在電池管理控制系統技術不成熟的前提下,退役動力電池用作移動應急電源等小型儲存系統更爲合適。按照現在的技術,馬上把電動汽車電池退役之後用在太陽能和風電的儲能,從小到大,如何保證電池的均勻性和電池系統的安全可靠性,還有待商榷,需要認真研討。根據3R&3E策略,采取多種方法回收有價金屬,降低各類汙染,日本在這方面有許多成功的經驗。

吳鋒表示,在保障安全性前提下,繼續開發高能量密度、功率密度、低成本、高可靠性的動力電池體系,建立完整的動力電池梯次利用和電池回收再利用體系,將加快推進新能源汽車發展。

與此同時,技術發展的不確定性,意味著可能隨時被顛覆;中國動力電池目前狀況是總體産能過剩,優質産能不足,急需進一步創新發展,以期取得具有顛覆性的技術突破。

吳峰指出,一個真正從基礎研究做起來的顛覆性創新,並不是一蹴即成的,不能急于求成,有時候這個事情要做五年十年或者十五年。美國能源部最近對動力電池提出了更高的性價比指標,從整個材料體系和電池體系來講,國內都要有些創新性的思路。

原文标题:吴锋:优质产能不足 国内动力电池深爱激情网将面临洗牌

文章出處:歡迎添加關注!文章轉載請注明出處。

世界移动通信大会落下帷幕 ST最新物联网和智能驾驶解决方案纷纷亮相

世界移動通信大會上海2019于近日落下帷幕,ST最新物聯網和智能駕駛解決方案紛紛亮相。本屆MWC19上海展在上海新國際博覽中心舉辦,核心主題是5G、物聯網、人工智能與大數據。

本次展會,ST展台共分爲數據安全、汽車電子、傳感器、人工智能與數據處理、通信連接、模擬器件和功率器件六大展區。這是一篇ST展台的遊記短文,不能到場參觀的朋友,跟著我們一起來回顧一下本次展會ST帶來什麽樣的驚喜吧!

數據安全

STM32L5 TrustZone演示了如何利用ST的STM32L5 MCU,在性能、功耗和安全之间取得最佳平衡。利用Arm?Cortex?-M33安全功能和Armv8-M TrustZone技术,STM32L5能灵活实现软硬件安全隔离。

汽車電子

意法半导体本次带来了TeseoV和TeseoApp GNSS接收器, 整合多频 和多模导航卫星系统,适合高精度导航、ADAS、C-V2X和智能天线等高精度的定位运用, ?是业界同类首个集成数据完整性校验的深爱激情网,适用于安全关键系统 , 提高系统性能、安全性和可靠性,可以满足自动驾驶系统的严格要求。

傳感器

STWIN有多个通信连接技术可选,帮助工程师设计现代化的工业傳感器节点。该解决方案向观众展示了智能傳感器如何检测工业设备的实时振动、噪声和温度数据,实现预测性维护。ST还将在MWC上海2019展会上首次公开演示其人流量计数器,该解决方案用VL53L1X飞行时间傳感器计算进门人数,并在LED屏幕上显示实时人数。

人工智能與數據處理

什么,STM32还可以识别沙拉?!在人工智能與數據處理展区,意法半导体AI与和数据处理展品向观众们演示了如何利用STM32Cube.AI识别手写字符、人类活动和各种食物。同时,在将机器学习部署到各种应用方面,STM32Cube.AI仍然是一款独一无二的解决方案。

數據連接

100节点BlueNRG-Mesh物联网展示了ST的Bluetooth MESH技术和工业智能傳感器整体方案。此外,ST展台展出的STM32WB E-LOCK智能锁基于STM32WB MCU,集成蓝牙、MCU、指纹算法芯片、Zigbee、Thread等功能,是市场上成本效益最高的智能锁解决方案。

模擬器件和功率器件

本次展会,ST也展出了各种电源管理和无线充电解决方案,包括意法半导体合作伙伴Würth的USB Type-C ?power Delivery和15W三线圈无线充电器解决方案及RF Tuner射频调谐器演示板等。

原文標題:MWC上海2019圓滿落幕,ST帶來了哪些驚喜?

文章出處:歡迎添加關注!文章轉載請注明出處。

機器學習算法優缺點對比及選擇

機器學習算法太多了,分類、回歸、聚類、推薦、圖像識別領域等等,要想找到一個合適算法真的不容易,所以在實際應用中,我們一般都是采用啓發式學習方式來實驗。通常最開始我們都會選擇大家普遍認同的算法,諸如SVM,GBDT,Adaboost,現在深度學習很火熱,神經網絡也是一個不錯的選擇。

假如你在乎精度的話,最好的方法就是通過交叉驗證對各個算法一個個地進行測試,進行比較,然後調整參數確保每個算法達到最優解,最後選擇最好的一個。但是如果你只是在尋找一個“足夠好”的算法來解決你的問題,或者這裏有些技巧可以參考,下面來分析下各個算法的優缺點,基于算法的優缺點,更易于我們去選擇它。

1.天下沒有免費的午餐

在機器學習領域,一個基本的定理就是“沒有免費的午餐”。換言之,就是沒有算法能完美地解決所有問題,尤其是對監督學習而言。

舉例來說,你不能去說神經網絡任何情況下都能比決策樹更有優勢,反之亦然。它們要受很多因素的影響,比如你的數據集的規模或結構。

其結果是,在用給定的測試集來評估性能並挑選算法時,你應當根據具體的問題來采用不同的算法。

當然,所選的算法必須要適用于你自己的問題,這就要求選擇正確的機器學習任務。作爲類比,如果你需要打掃房子,你可能會用到吸塵器、掃帚或是拖把,但你絕對不該掏出鏟子來挖地。

2. 偏差&方差

在統計學中,一個模型好壞,是根據偏差和方差來衡量的,所以我們先來普及一下偏差和方差:

偏差:描述的是預測值的期望E’與真實值Y之間的差距。偏差越大,越偏離真實數據。

方差:描述的是預測值p的變化範圍,離散程度,是預測值的方差,也就是離其期望值E的距離。方差越大,數據的分布越分散。

模型的真實誤差是兩者之和,如公式:

通常情況下,如果是小訓練集,高偏差/低方差的分類器要比低偏差/高方差大分類的優勢大,因爲後者會發生過擬合。然而,隨著你訓練集的增長,模型對于原數據的預測能力就越好,偏差就會降低,此時低偏差/高方差的分類器就會漸漸的表現其優勢,而高偏差分類器這時已經不足以提供准確的模型了。

爲什麽說樸素貝葉斯是高偏差低方差?

以下內容引自知乎:

首先,假設你知道訓練集和測試集的關系。簡單來講是我們要在訓練集上學習一個模型,然後拿到測試集去用,效果好不好要根據測試集的錯誤率來衡量。但很多時候,我們只能假設測試集和訓練集的是符合同一個數據分布的,但卻拿不到真正的測試數據。這時候怎麽在只看到訓練錯誤率的情況下,去衡量測試錯誤率呢?

由于訓練樣本很少,所以通過訓練集得到的模型,總不是真正正確的。。而且,實際中,訓練樣本往往還有一定的噪音誤差,所以如果太追求在訓練集上的完美而采用一個很複雜的模型,會使得模型把訓練集裏面的誤差都當成了真實的數據分布特征,從而得到錯誤的數據分布估計。這樣的話,到了真正的測試集上就錯的一塌糊塗了。但是也不能用太簡單的模型,否則在數據分布比較複雜的時候,模型就不足以刻畫數據分布了。過擬合表明采用的模型比真實的數據分布更複雜,而欠擬合表示采用的模型比真實的數據分布要簡單。

在统计学习框架下,大家刻画模型复杂度的时候,有这么个观点,认为Error = Bias + Variance。这里的Error大概可以理解为模型的预测错误率,是有两部分组成的,一部分是由于模型太简单而带来的估计不准确的部分,另一部分是由于模型太复杂而带来的更大的变化空间和不确定性。

所以,這樣就容易分析樸素貝葉斯了。它簡單的假設了各個數據之間是無關的,是一個被嚴重簡化了的模型。所以,對于這樣一個簡單模型,大部分場合都會Bias部分大于Variance部分,也就是說高偏差而低方差。

在實際中,爲了讓Error盡量小,我們在選擇模型的時候需要平衡Bias和Variance所占的比例,也就是平衡over-fitting和under-fitting。

當模型複雜度上升的時候,偏差會逐漸變小,而方差會逐漸變大。

3. 常见算法优缺點

3.1 朴素贝叶斯

朴素贝叶斯属于生成式模型,比较简单,你只需做一堆计数即可。如果注有条件独立性假设,朴素贝叶斯分类器的收敛速度将快于判别模型,比如逻辑回归,所以你只需要较少的训练数据即可。即使NB条件独立假设不成立,NB分类器在实践中仍然表现的很出色。它的主要缺點是它不能学习特征间的相互作用,用mRMR中R来讲,就是特征冗余。引用一个比较经典的例子,比如,虽然你喜欢Brad pitt和Tom Cruise的电影,但是它不能学习出你不喜欢他们在一起演的电影。

優點:

樸素貝葉斯模型發源于古典數學理論,有著堅實的數學基礎,以及穩定的分類效率。

對大數量訓練和查詢時具有較高的速度。即使使用超大規模的訓練集,針對每個項目通常也只會有相對較少的特征數,並且對項目的訓練和分類也僅僅是特征概率的數學運算而已;

對小規模的數據表現很好,能個處理多分類任務,適合增量式訓練;

對缺失數據不太敏感,算法也比較簡單,常用于文本分類;

樸素貝葉斯對結果解釋容易理解;

缺點:

需要計算先驗概率;

分類決策存在錯誤率;

對輸入數據的表達形式很敏感;

由于使用了樣本屬性獨立性的假設,所以如果樣本屬性有關聯時其效果不好;

樸素貝葉斯應用領域

欺詐檢測中使用較多

一封深爱激情网是否是垃圾郵件

一篇文章應該分到科技、政治,還是體育類

一段文字表達的是積極的情緒還是消極的情緒?

人臉識別

3.2 Logistic Regression

邏輯回歸屬于判別式模型,同時伴有很多模型正則化的方法,而且你不必像在用樸素貝葉斯那樣擔心你的特征是否相關。與決策樹、SVM相比,你還會得到一個不錯的概率解釋,你甚至可以輕松地利用新數據來更新模型。如果你需要一個概率架構,或者你希望以後將更多的訓練數據快速整合到模型中去,那麽使用它吧。

Sigmoid函數:表達式如下:

優點:

實現簡單,廣泛的應用于工業問題上;

分類時計算量非常小,速度很快,存儲資源低;

便利的觀測樣本概率分數;

對邏輯回歸而言,多重共線性並不是問題,它可以結合L2正則化來解決該問題;

計算代價不高,易于理解和實現;

缺點:

當特征空間很大時,邏輯回歸的性能不是很好;

容易欠擬合,一般准確度不太高

不能很好地處理大量多類特征或變量;

只能處理兩分類問題,且必須線性可分;

對于非線性特征,需要進行轉換;

logistic回歸應用領域:

用于二分類領域,可以得出概率值,適用于根據分類概率排名的領域,如搜索排名等。

Logistic回歸的擴展softmax可以應用于多分類領域,如手寫字識別等。

信用評估

測量市場營銷的成功度

預測某個深爱激情网的收益

特定的某天是否會發生地震

3.3 线性回归

线性回归是用于回归的,它不像Logistic回归那样用于分类,其基本思想是用梯度下降法对最小二乘法形式的误差函数进行优化,当然也可以用normal equation直接求得参数的解,结果为:

而在LWLR中,參數的計算表達式爲:

由此可見LWLR與LR不同,LWLR是一個非參數模型,因爲每次進行回歸計算都要遍曆訓練樣本至少一次。

優點:实现简单,计算简单;

缺點:不能拟合非线性数据。

3.4 最近邻算法——KNN

KNN即最近鄰算法,其主要過程爲:

1. 计算训练样本和测试样本中每个样本点的距离;2. 对上面所有的距离值进行排序;3. 选前k个最小距离的样本;4. 根据这k个样本的标签进行投票,得到最后的分类类别;

如何選擇一個最佳的K值,這取決于數據。一般情況下,在分類時較大的K值能夠減小噪聲的影響,但會使類別之間的界限變得模糊。一個較好的K值可通過各種啓發式技術來獲取,比如,交叉驗證。另外噪聲和非相關性特征向量的存在會使K近鄰算法的准確性減小。近鄰算法具有較強的一致性結果,隨著數據趨于無限,算法保證錯誤率不會超過貝葉斯算法錯誤率的兩倍。對于一些好的K值,K近鄰保證錯誤率不會超過貝葉斯理論誤差率。

KNN算法的優點

理論成熟,思想簡單,既可以用來做分類也可以用來做回歸;

可用于非線性分類;

訓練時間複雜度爲O;

對數據沒有假設,准確度高,對outlier不敏感;

KNN是一種在線技術,新數據可以直接加入數據集而不必進行重新訓練;

KNN理論簡單,容易實現;

缺點

樣本不平衡問題效果差;

需要大量內存;

對于樣本容量大的數據集計算量比較大;

樣本不平衡時,預測偏差比較大。如:某一類的樣本比較少,而其它類樣本比較多;

KNN每一次分類都會重新進行一次全局運算;

k值大小的選擇沒有理論選擇最優,往往是結合K-折交叉驗證得到最優k值選擇;

KNN算法應用領域

文本分類、模式識別、聚類分析,多分類領域

3.5 决策树

决策树的一大优势就是易于解释。它可以毫无压力地处理特征间的交互关系并且是非参数化的,因此你不必担心异常值或者数据是否线性可分。它的缺點之一就是不支持在线学习,于是在新样本到来后,决策树需要全部重建。另一个缺點就是容易出现过拟合,但这也就是诸如随机森林RF之类的集成方法的切入点。另外,随机森林经常是很多分类问题的赢家,它训练快速并且可调,同时你无须担心要像支持向量机那样调一大堆参数,所以在以前都一直很受欢迎。

決策樹中很重要的一點就是選擇一個屬性進行分枝,因此要注意一下信息增益的計算公式,並深入理解它。

信息熵的計算公式如下:

其中的n代表有n个分类类别。分别计算这2类样本在总样本中出现的概率 和 ,这样就可以计算出未选中属性分枝前的信息熵。

现在选中一个属性 用来进行分枝,此时分枝规则是:如果 的话,将样本分到树的一个分支;如果不相等则进入另一个分支。很显然,分支中的样本很有可能包括2个类别,分别计算这2个分支的熵 和 ,计算出分枝后的总信息熵 ,则此时的信息增益 。以信息增益为原则,把所有的属性都测试一边,选择一个使增益最大的属性作为本次分枝属性。

決策樹自身的優點

決策樹易于理解和解釋,可以可視化分析,容易提取出規則;

可以同時處理標稱型和數值型數據;

比較適合處理有缺失屬性的樣本;

能夠處理不相關的特征;

測試數據集時,運行速度比較快;

在相對短的時間內能夠對大型數據源做出可行且效果良好的結果。

缺點

容易發生過擬合;

容易忽略數據集中屬性的相互關聯;

對于那些各類別樣本數量不一致的數據,在決策樹中,進行屬性劃分時,不同的判定准則會帶來不同的屬性選擇傾向;信息增益准則對可取數目較多的屬性有所偏好,而增益率准則則對可取數目較少的屬性有所偏好,但CART進行屬性劃分時候不再簡單地直接利用增益率盡心劃分,而是采用一種啓發式規則)。

ID3算法計算信息增益時結果偏向數值比較多的特征。

改進措施

對決策樹進行剪枝。可以采用交叉驗證法和加入正則化的方法。

使用基于決策樹的combination算法,如bagging算法,randomforest算法,可以解決過擬合的問題;

應用領域

企業管理實踐,企業投資決策,由于決策樹很好的分析能力,在決策過程應用較多。

3.5.1 ID3、C4.5算法

ID3算法是以信息论为基础,以信息熵和信息增益度为衡量标准,从而实现对数据的归纳分类。ID3算法计算每个属性的信息增益,并选取具有最高增益的属性作为给定的测试属性。C4.5算法核心思想是ID3算法,是ID3算法的改进,改进方面有:- 用信息增益率来选择属性,克服了用信息增益选择属性时偏向选择取值多的属性的不足;- 在树构造过程中进行剪枝;- 能处理非离散的数据;- 能处理不完整的数据。

優點

産生的分類規則易于理解,准確率較高。

缺點

在構造樹的過程中,需要對數據集進行多次的順序掃描和排序,因而導致算法的低效;

C4.5只適合于能夠駐留于內存的數據集,當訓練集大得無法在內存容納時程序無法運行。

3.5.2 CART分类与回归树

是一種決策樹分類方法,采用基于最小距離的基尼指數估計函數,用來決定由該子數據集生成的決策樹的拓展形。如果目標變量是標稱的,稱爲分類樹;如果目標變量是連續的,稱爲回歸樹。分類樹是使用樹結構算法將數據分成離散類的方法。

優點

1)非常灵活,可以允许有部分错分成本,还可指定先验概率分布,可使用自动的成本复杂性剪枝来得到归纳性更强的树。2)在面对诸如存在缺失值、变量数多等问题时CART 显得非常稳健。

3.6 Adaboosting

Adaboost是一种加和模型,每个模型都是基于上一次模型的错误率来建立的,过分关注分错的样本,而对正确分类的样本减少关注度,逐次迭代之后,可以得到一个相对较好的模型。该算法是一种典型的boosting算法,其加和理论的优势可以使用Hoeffding不等式得以解释。有兴趣的同学可以阅读下自己之前写的这篇文章AdaBoost算法详述。下面总结下它的优缺點。

優點

Adaboost是一種有很高精度的分類器。

可以使用各種方法構建子分類器,Adaboost算法提供的是框架。

當使用簡單分類器時,計算出的結果是可以理解的,並且弱分類器的構造極其簡單。

簡單,不用做特征篩選。

不易發生overfitting。

关于Adaboost, GBDT 及 XGBoost 算法区别,参考这篇文章:Adaboost、GBDT与XGBoost的区别

缺點

對outlier比較敏感

3.7 SVM支持向量机

支持向量机,一个经久不衰的算法,高准确率,为避免过拟合提供了很好的理论保证,而且就算数据在原特征空间线性不可分,只要给个合适的核函数,它就能运行得很好。在动辄超高维的文本分类问题中特别受欢迎。可惜内存消耗大,难以解释,运行和调参也有些烦人,而随机森林却刚好避开了这些缺點,比较实用。

優點

可以解決高維問題,即大型特征空間;

解決小樣本下機器學習問題;

能夠處理非線性特征的相互作用;

無局部極小值問題;

無需依賴整個數據;

泛化能力比較強;

缺點

當觀測樣本很多時,效率並不是很高;

對非線性問題沒有通用解決方案,有時候很難找到一個合適的核函數;

對于核函數的高維映射解釋力不強,尤其是徑向基函數;

常規SVM只支持二分類;

對缺失數據敏感;

對于核的選擇也是有技巧的:

第一,如果樣本數量小于特征數,那麽就沒必要選擇非線性核,簡單的使用線性核就可以了;

第二,如果樣本數量大于特征數目,這時可以使用非線性核,將樣本映射到更高維度,一般可以得到更好的結果;

第三,如果樣本數目和特征數目相等,該情況可以使用非線性核,原理和第二種一樣。

對于第一種情況,也可以先對數據進行降維,然後使用非線性核,這也是一種方法。

SVM應用領域

文本分類、圖像識別

3.8 人工神经网络的优缺點

人工神经网络的優點:

分類的准確度高;

並行分布處理能力強,分布存儲及學習能力強,

對噪聲神經有較強的魯棒性和容錯能力;

具備聯想記憶的功能,能充分逼近複雜的非線性關系;

人工神经网络的缺點:

神經網絡需要大量的參數,如網絡拓撲結構、權值和阈值的初始值;

黑盒過程,不能觀察之間的學習過程,輸出結果難以解釋,會影響到結果的可信度和可接受程度;

學習時間過長,有可能陷入局部極小值,甚至可能達不到學習的目的。

人工神经网络應用領域:

目前深度神經網絡已經應用與計算機視覺,自然語言處理,語音識別等領域並取得很好的效果。

3.9 K-Means聚类

是一个简单的聚类算法,把n的对象根据他们的属性分为k个分割,k《 n。算法的核心就是要优化失真函数J,使其收敛到局部最小值但不是全局最小值。

關于K-Means聚類的文章,參見機器學習算法-K-means聚類。關于K-Means的推導,裏面可是有大學問的,蘊含著強大的EM思想。

優點

算法简单,容易实现 ;

算法速度很快;

對處理大數據集,該算法是相對可伸縮的和高效率的,因爲它的複雜度大約是O,其中n是所有對象的數目,k是簇的數目,t是叠代的次數。通常k《《n。這個算法通常局部收斂。

算法嘗試找出使平方誤差函數值最小的k個劃分。當簇是密集的、球狀或團狀的,且簇與簇之間區別明顯時,聚類效果較好。

缺點

對數據類型要求較高,適合數值型數據;

可能收斂到局部最小值,在大規模數據上收斂較慢

分組的數目k是一個輸入參數,不合適的k可能返回較差的結果。

對初值的簇心值敏感,對于不同的初始值,可能會導致不同的聚類結果;

不適合于發現非凸面形狀的簇,或者大小差別很大的簇。

對于”噪聲”和孤立點數據敏感,少量的該類數據能夠對平均值産生極大影響。

3.10 EM最大期望算法

EM算法是基于模型的聚類方法,是在概率模型中尋找參數最大似然估計的算法,其中概率模型依賴于無法觀測的隱藏變量。E步估計隱含變量,M步估計其他參數,交替將極值推向最大。

EM算法比K-means算法計算複雜,收斂也較慢,不適于大規模數據集和高維數據,但比K-means算法計算結果穩定、准確。EM經常用在機器學習和計算機視覺的數據集聚領域。

3.11 集成算法

AdaBoost算法優點:

很好的利用了弱分類器進行級聯;

可以將不同的分類算法作爲弱分類器;

AdaBoost具有很高的精度;

相对于bagging算法和Random Forest算法,AdaBoost充分考虑的每个分类器的权重;

Adaboost算法缺點:

AdaBoost叠代次數也就是弱分類器數目不太好設定,可以使用交叉驗證來進行確定;

數據不平衡導致分類精度下降;

訓練比較耗時,每次重新選擇當前分類器最好切分點;

AdaBoost應用領域:

模式識別、計算機視覺領域,用于二分類和多分類場景

3.12 排序算法

pageRank是google的頁面排序算法,是基于從許多優質的網頁鏈接過來的網頁,必定還是優質網頁的回歸關系,來判定所有網頁的重要性。

pageRank優點

完全獨立于查詢,只依賴于網頁鏈接結構,可以離線計算。

pageRank缺點

pageRank算法忽略了網頁搜索的時效性。

舊網頁排序很高,存在時間長,積累了大量的in-links,擁有最新深爱激情网的新網頁排名卻很低,因爲它們幾乎沒有in-links。

3.13 关联规则算法

Apriori算法是一种挖掘关联规则的算法,用于挖掘其内含的、未知的却又实际存在的数据关系,其核心是基于两阶段频集思想的递推算法 。

Apriori算法分爲兩個階段:

尋找頻繁項集

由頻繁項集找關聯規則

算法缺點:

在每一步産生侯選項目集時循環産生的組合過多,沒有排除不應該參與組合的元素;

4. 算法选择参考

之前筆者翻譯過一些國外的文章,其中有一篇文章中給出了一個簡單的算法選擇技巧:

首當其沖應該選擇的就是邏輯回歸,如果它的效果不怎麽樣,那麽可以將它的結果作爲基准來參考,在基礎上與其他算法進行比較;

然後試試決策樹看看是否可以大幅度提升你的模型性能。即便最後你並沒有把它當做爲最終模型,你也可以使用隨機森林來移除噪聲變量,做特征選擇;

如果特征的數量和觀測樣本特別多,那麽當資源和時間充足時,使用SVM不失爲一種選擇。

通常情況下:,現在深度學習很熱門,很多領域都用到,它是以神經網絡爲基礎的,目前筆者自己也在學習,只是理論知識不紮實,理解的不夠深入,這裏就不做介紹了,希望以後可以寫一片抛磚引玉的文章。

算法固然重要,但好的數據卻要優于好的算法,設計優良特征是大有裨益的。假如你有一個超大數據集,那麽無論你使用哪種算法可能對分類性能都沒太大影響。

原文标题:?機器學習算法優缺點對比及選擇

文章出處:歡迎添加關注!文章轉載請注明出處。