優先要滿足內存、CPU需求。

內存要足夠大:學習大數據的過程需要安裝虛擬機來安裝本地集群,需要足夠的內存來分配給每個虛擬節點。像我自己方式學的時候,內存只有8G,裝了五台虛擬機,運行壓力很大。

你的目的是來學習的,就不考慮遊戲本了。下面我給你推薦幾款內存和性能足夠優秀的電腦 。注意不要買促銷的產品!!!


如果你只是學習大數據的階段,筆記本電腦和台式電腦看你個人喜好,配置的話就一般程序員做開發用的配置就夠用了。


大數據這種專業,需要用到虛擬機,還會用hadoop等框架,需要電腦性能都要跟上,最好每一台配置好一點的電腦


配置越高越好


剛開始學的話,普通的筆記本或者台式機就行,4000-7000元左右的就行。隨著學習的深入,可以加配一些顯卡什麼的,用於GPU計算,至於Hadoop這種分散式平台,如果只是學習完全沒有必要買多台電腦,直接用虛擬機就行,只要把原理搞清楚了,其他都好辦。開發環境對硬體要求不是太高,只要在開發環境上充分測試,在生產環境中就沒有太大問題。隨便說一句,無論多厲害的個人電腦都沒辦法跟生產環境中的伺服器以及大規模計算集群相比,從這個層面說,用於開發的個人電腦湊合能用就行,只要不卡,流暢運行,發熱不嚴重就行。


不求最好但求最貴


配備i7四核處理器和16GB的RAM的筆記本電腦是學習數據分析的理想選擇。如果,你想要更多地用於深度學習,那麼對計算性能要求就要更高一些了。筆記本電腦必須至少具有512GB硬碟驅動器才能處理大數據集。儘管可能還是會面臨硬碟驅動器空間不足的問題,但至少還可以增加。要有至少16GB的RAM空間,因為有時機器可能無法處理比較繁重的情況。在這種情況下,可能必須運行虛擬機。


作為一名入行有一段時間的菜鳥看來,學習大數據買一個普通電腦就可以了,應該把錢花在買伺服器上面。畢竟我們做的是分散式框架,僅僅使用自己的電腦弄虛擬機來搭建環境永遠沒有實際的分散式環境好。而且很多問題是自己虛擬機無法遇到的。


內存! 內存!內存!

重要的事情說三遍。

如果要學習大數據,就不得不考慮在本地搭建虛擬機環境

至少要三台虛擬機才能模擬大數據環境

而且還要在其中安裝hadoop spark flink等組件

一台至少8G內存

還有要給本機留出一些

所以內存至少要 32G

cpu i5以上就可以


32G內存起,因為集群耗資源;15.6寸,因為要寫代碼屏幕大點舒服。


學習大數據跟什麼電腦關係不大,現在大數據處理都是雲端為主,可以開個雲賬號。學習還是買幾本書,有台電腦練手即可。


內存16

I7

1T


配置肯定是越高越好,不管是學習還是偶爾打遊戲,肯定配置高的好,但是配置高也意味著成本高。

所以,如果你是學生或者大數據入門,配置略高即可,16G內存,6K預算基本管夠。

如果你對大數據hive感興趣,歡迎關注我的微信公眾號"技術價值"。

https://mp.weixin.qq.com/s/GmBEhN-g39jietVDHLHDzg


推薦閱讀:
相关文章