『壹』 NVIDIA顯卡的的CUDA核心是什麼
CUDA核心,理論上流處理器縮寫是SP。但NVIDIA自己稱呼他們的SP是CUDA Core。
CUDA Core只是N卡流處理器而已,只是一個流處理器名詞。
CUDA是一個統一計算架構,屬於軟體+硬體架構統稱。他不是一個軟體也不是一個純硬體。而是軟硬結合的計算體系。
你可以理解為CUDA是一個基於NVIDIA GPU平台上面NV自己定製的特殊計算體系。是NV自己發明的運算演算法,在NV平台和軟體支持上面才能發揮最高效率。CUDA在NVIDIA定義是一種類C語言,本身兼容C語言。CUDA雖然是一種獨立語言提供開發學習,但CUDA本身和C差距不算非常巨大,很多有經驗的開發者很快能學會。
CUDA在全球屬於NVIDIA私人生態區,他的勢力並不比IOS小。甚至在高端計算領域和圖形領域。CUDA算的上是權威標准。 Quadro和Tesla這2個統治世界的著名計算平台就是靠著CUDA生態區才能提供客戶一體化服務,否則如果大家都像AMD那樣只賣個浮點看起來很高的物理節點,那麼老黃根本不敢自封視覺運算公司,那不是普通半導體公司搞的授權么?
CUDA是一個計算結構,是一個理念。是一個軟硬平台,是一個NV提供綜合性服務的東西。他不是一個顯卡授權,也不是一個集群。也不是一個驅動。
『貳』 如何在kali linux中安裝英偉達內核模塊cuda和pyrit
安裝cuda以及nvidia驅動
這一步比較簡單,安裝之前,推薦大家編輯一下/etc/apt/source.list文件,把國外的源注釋掉換成國內科大的,下載比較快。科大源的地址如下
deb http://mirrors.ustc.e.cn/kali kali main non-free contrib
deb-src http://mirrors.ustc.e.cn/kali kali main non-free contrib
deb http://mirrors.ustc.e.cn/kali-security kali/updates main contrib non-free
設置完之後,執行以下命令安裝
apt-get update
apt-get install nvidia-detect nvidia-libopencl1 nvidia-opencl-common nvidia-support nvidia-opencl-icd nvidia-visual-profiler nvidia-glx nvidia-installer-cleanup nvidia-kernel-common nvidia-smi nvidia-alternative nvidia-opencl-dev libglx-nvidia-alternatives nvidia-kernel-dkms nvidia-cuda-toolkit nvidia-vdpau-driver nvidia-xconfig glx-alternative-nvidia libgl1-nvidia-alternatives nvidia-settings libgl1-nvidia-glx xserver-xorg-video-nvidia libcublas4 libcudart4 libcufft4 libnpp4 libnvidia-compiler libcuda1 libcuinj4 libnvidia-ml1 libxvmcnvidia1 libcusparse4 libcurand4 python-pycuda-doc python-pycuda-headers python-pycuda nvidia-cuda-doc nvidia-cuda-gdb
由於包比較多可能有點慢,安裝過程會彈出兩個窗口需要確認,直接OK就好,執行完之後toolkit和驅動都裝上了,然後把一些變數寫入系統,在/root/.bashrc最後面加上下面一段
PATH=$PATH:/usr/lib/nvidia-cuda-toolkit/bin
LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/lib/nvidia-cuda-toolkit/lib:/lib
export PATH
export LD_LIBRARY_PATH
可以執行一下ldconfig馬上生效,不過反正都要重啟一次的了,重啟。
安裝pyrit-cuda
下面重新編譯個pyrit來試一試使用GPU。下載pyrit的地址是:
https://code.google.com/p/pyrit/downloads/list
我們需要下載pyrit-0.4.0.tar.gz和cpyrit-cuda-0.4.0.tar.gz,下載完之後,安裝一下編譯所需要的工具
atp-get install libpcap-dev python2.7-dev
解壓pyrit-0.4.0.tar.gz並且安裝
tar -xzvf pyrit-0.4.0.tar.gz
cd pyrit-0.4.0
python setup.py build
python setup.py install
解壓cpyrit-cuda-0.4.0.tar.gz
tar -xzvf cpyrit-cuda-0.4.0.tar.gz
cd cpyrit-cuda-0.4.0
這里需要進行一些改動,編輯setup.py,把第35行
for path in ('/usr/local/cuda', '/opt/cuda'):
改成
for path in ('/usr/local/cuda','/usr/lib/nvidia-cuda-toolkit','/opt/cuda'):
免得安裝程序找不到nvcc
然後就安裝
python setup.py build
python setup.py install
安裝完,運行一下
pyrit list_cores
應該能看到GPU了,類似
#1: 'CUDA-Device #1 'GeForce 8400 GS''
#2: 'CPU-Core (SSE2)'
#3: 'CPU-Core (SSE2)'
#4: 'CPU-Core (SSE2)'
#5: 'CPU-Core (SSE2)'
#6: 'CPU-Core (SSE2)'
#7: 'CPU-Core (SSE2)'
#8: 'CPU-Core (SSE2)'
安裝optimus
把源Key取回來
wget -O - http://suwako.nomanga.net/suwako.asc | apt-key add -
在/etc/apt/source.list中加入Bumblebee的源
deb http://suwako.nomanga.net/debian sid main contrib
deb-src http://suwako.nomanga.net/debian sid main
然後執行安裝
apt-get update
apt-get install bumblebee bumblebee-nvidia
安裝完畢,把root加入bemblebe組,然後重啟
adser root bumblebee
重啟完畢可以測試一下,分別運行
glxspheres
optirun glxspheres
可以看到幀數是不同的
『叄』 編譯nvidia的physx例子的時候,好多都出現這個錯誤The storage control block address is invalid.
好吧,咱插一句,乃是從哪裡下的編譯器= =。為毛我到現在連個可以用的編譯器都沒裝上去過= =,官網下的也不行,說沒有匹配的硬體。
『肆』 NVIDIA顯卡驅動編譯安裝指導第四,五步怎麼做
1、顯卡驅動,建議你去顯卡 官網下載最新的驅動就可以啦
2、或者安裝第三方軟體,比如驅動人生等,檢測最新驅動一鍵安裝就好了,而且還可以咨詢客服呦
『伍』 關於Nvidia的幾個常識
physx 是一套由 nvidia 設計的執行復雜的物理運算的技術.在 2005年7月20日,索尼同意在即將發售的 playstation3 中使用 nvidia 的 physx 和它的 sdk —— novodex 。nvidia 聲稱,physx 將會使設計師在開發游戲的過程中使用復雜的物理效果而不需要sSbBwW.cOm像以往那樣耗費漫長的時間開發一套物理引擎,而且使用了物理引擎還會使一些配置較低的電腦無法流暢運行。nvidia 更宣稱 physx 執行物理運算的效率比當前的 cpu 與物理處理軟體的組合高出 100 倍。游戲設計語言 dark basic pro 將會支持 physx,並允許其用戶利用physx 執行物理運算。
CUDA(Compute Unified Device Architecture),顯卡廠商NVidia推出的運算平台。
隨著顯卡的發展,GPU越來越強大,而且GPU為顯示圖像做了優化。在計算上已經超越了通用的CPU。如此強大的晶元如果只是作為顯卡就太浪費了,因此NVidia推出CUDA,讓顯卡可以用於圖像計算以外的目的。
目前只有G80、G92、G94和GT200平台的NVidia顯卡才能使用CUDA,工具集的核心是一個C語言編譯器。G80中擁有128個單獨的ALU,因此非常適合並行計算,而且數值計算的速度遠遠優於CPU。
你的顯卡可以
『陸』 nvidia/cuda 公開源中的devel和runtime有什麼區別
從很多方面來看,CUDA和OpenCL的關系都和DirectX與OpenGL的關系很相像。如同DirectX和OpenGL一樣,CUDA和OpenCL中,前者是配備完整工具包、針對單一供應商(NVIDIA)的成熟的開發平台,後者是一個開放的標准。
雖然兩者抱著相同的目標:通用並行計算。但是CUDA僅僅能夠在NVIDIA的GPU硬體上運行,而OpenCL的目標是面向任何一種Massively Parallel Processor,期望能夠對不同種類的硬體給出一個相同的編程模型。由於這一根本區別,二者在很多方面都存在不同:
1)開發者友好程度。CUDA在這方面顯然受更多開發者青睞。原因在於其統一的開發套件(CUDA Toolkit, NVIDIA GPU Computing SDK以及NSight等等)、非常豐富的庫(cuFFT, cuBLAS, cuSPARSE, cuRAND, NPP, Thrust)以及NVCC(NVIDIA的CUDA編譯器)所具備的PTX(一種SSA中間表示,為不同的NVIDIA GPU設備提供一套統一的靜態ISA)代碼生成、離線編譯等更成熟的編譯器特性。相比之下,使用OpenCL進行開發,只有AMD對OpenCL的驅動相對成熟。
2)跨平台性和通用性。這一點上OpenCL佔有很大優勢(這也是很多National Laboratory使用OpenCL進行科學計算的最主要原因)。OpenCL支持包括ATI,NVIDIA,Intel,ARM在內的多類處理器,並能支持運行在CPU的並行代碼,同時還獨有Task-Parallel Execution Mode,能夠更好的支持Heterogeneous Computing。這一點是僅僅支持數據級並行並僅能在NVIDIA眾核處理器上運行的CUDA無法做到的。
3)市場佔有率。作為一個開放標准,缺少背後公司的推動,OpenCL顯然沒有占據通用並行計算的主流市場。NVIDIA則憑借CUDA在科學計算、生物、金融等領域的推廣牢牢把握著主流市場。再次想到OpenGL和DirectX的對比,不難發現公司推廣的高效和非盈利機構/標准委員會的低效(抑或謹慎,想想C++0x)。
很多開發者都認為,由於目前獨立顯卡市場的萎縮、新一代處理器架構(AMD的Graphics Core Next (GCN)、Intel的Sandy Bridge以及Ivy Bridge)以及新的SIMD編程模型(Intel的ISPC等)的出現,未來的通用並行計算市場會有很多不確定因素,CUDA和OpenCL都不是終點,我期待未來會有更好的並行編程模型的出現(當然也包括CUDA和OpenCL,如果它們能夠持續發展下去)。
『柒』 為什麼有人說英偉達是中國台灣的
因為英偉達的創始人黃仁勛原籍是中國台灣省。
黃仁勛於1963年2月17在中國台灣省台北市出生,1972年與家人遷往美國,後來被送往美國肯塔基州一間基督教學校就讀,完成課程後遷往俄勒岡州,15歲時參加美國乒乓球公開賽,在青年組雙打賽事中奪得季軍。
1984年於俄勒岡州立大學取得電機工程學位,其後在斯坦福大學取得碩士學位。黃仁勛曾在AMD(1983年—1985年)及LSI Logic(1985年1993年)工作,1993年創立NVIDIA。黃仁勛是圈子裡有名的工作狂。
(7)英偉達編譯擴展閱讀
矽谷之路——
黃仁勛矽谷之路的第一步,是加盟AMD公司並成為一名晶元設計師,這為他後來創辦NVIDIA打下了最初的技術基礎。兩年之後,他跳槽到LSI Logic。這也是一家晶元公司,但主打業務並不是CPU,而比較傾向於晶元的圖形處理。
不過在當時無論是CPU還是圖形晶元,都沒有出現如今天這樣一兩家企業壟斷市場的局面,而是群雄逐鹿的格局。與格局相對明朗的行業相比,在這類創業型的公司里,更容易學會如何把握機會,也更容易嘗到何為失敗。
『捌』 CUDA和OpenCL有什麼區別
從很多方面來看,CUDA和OpenCL的關系都和DirectX與OpenGL的關系很相像。如同DirectX和OpenGL一樣,CUDA和OpenCL中,前者是配備完整工具包、針對單一供應商(NVIDIA)的成熟的開發平台,後者是一個開放的標准。
雖然兩者抱著相同的目標:通用並行計算。但是CUDA僅僅能夠在NVIDIA的GPU硬體上運行,而OpenCL的目標是面向任何一種Massively
Parallel Processor,期望能夠對不同種類的硬體給出一個相同的編程模型。由於這一根本區別,二者在很多方面都存在不同:
1)開發者友好程度。CUDA在這方面顯然受更多開發者青睞。原因在於其統一的開發套件(CUDA Toolkit, NVIDIA GPU
Computing SDK以及NSight等等)、非常豐富的庫(cuFFT, cuBLAS, cuSPARSE, cuRAND, NPP,
Thrust)以及NVCC(NVIDIA的CUDA編譯器)所具備的PTX(一種SSA中間表示,為不同的NVIDIA
GPU設備提供一套統一的靜態ISA)代碼生成、離線編譯等更成熟的編譯器特性。相比之下,使用OpenCL進行開發,只有AMD對OpenCL的驅動相對成熟。
2)跨平台性和通用性。這一點上OpenCL佔有很大優勢(這也是很多National
Laboratory使用OpenCL進行科學計算的最主要原因)。OpenCL支持包括ATI,NVIDIA,Intel,ARM在內的多類處理器,並能支持運行在CPU的並行代碼,同時還獨有Task-Parallel
Execution Mode,能夠更好的支持Heterogeneous
Computing。這一點是僅僅支持數據級並行並僅能在NVIDIA眾核處理器上運行的CUDA無法做到的。
3)市場佔有率。作為一個開放標准,缺少背後公司的推動,OpenCL顯然沒有占據通用並行計算的主流市場。NVIDIA則憑借CUDA在科學計算、生物、金融等領域的推廣牢牢把握著主流市場。再次想到OpenGL和DirectX的對比,不難發現公司推廣的高效和非盈利機構/標准委員會的低效(抑或謹慎,想想C++0x)。
很多開發者都認為,由於目前獨立顯卡市場的萎縮、新一代處理器架構(AMD的Graphics Core Next (GCN)、Intel的Sandy
Bridge以及Ivy
Bridge)以及新的SIMD編程模型(Intel的ISPC等)的出現,未來的通用並行計算市場會有很多不確定因素,CUDA和OpenCL都不是終點,我期待未來會有更好的並行編程模型的出現(當然也包括CUDA和OpenCL,如果它們能夠持續發展下去)。
『玖』 我安裝了個英偉達的顯卡驅動 怎麼使用 (詳解()
1、下載驅動http://www.nvidia.com/page/home.html在下下載的就是NVIDIA-Linux-x86-100.14.23-pkg1.run這個文件
2、刪除原驅動包sudo apt-get --purge remove nvidia-glx然後刪除 /lib/linux-restricted-moles/2.6.22-14-generic/文件夾下面帶有nvidia字樣的內容,這里是內核自帶的驅動。再檢查一下。/etc/init.d/nvidia-glx
/etc/init.d/nvidia-kernel這兩個文件是否存在,刪除。
3、安裝要用到的軟體sudo apt-get install build-essential pkg-config xserver-xorg-dev linux-headers-`uname -r`安裝編譯包
4、備份sudo cp /etc/default/linux-restricted-moles-common /etc/default/linux-restricted-moles-common.backup
sudo cp /etc/X11/xorg.conf /etc/X11/xorg.conf.backup
5、禁止系統使用默認的驅動sudo gedit /etc/default/linux-restricted-moles-common在最後的雙引號中添加nv nvidia_new,即「」改成「nv nvidia_new」如果前面第二步刪除完整了其實也可以不用執行這一步。
6、停止GDM進程sudo /etc/init.d/gdm stop按Ctrl+Alt+F1,登錄後。
7、進入下好的驅動所在目錄(用ls命令確認文件在不在)sudo sh NVIDIA-Linux-x86-100.14.23-pkg1.run安裝過程中,如果提示有舊驅動,詢問是否刪除舊驅動,選Yes;如果提示缺少某某模塊(moles),詢問是否上網下載,選no;如果提示編譯模塊,詢問是否進行編譯,選ok;如果提示將要修改Xorg.conf,詢問是否允許,選Yes;接下來就是等待安裝完成。
8、安裝完成就回到終端,重啟GDMsudo /etc/init.d/gdm restartok了,當看到NV的logo後,安裝成功。如果實在不想看NVIDIA的LOGO,可以修改 /etc/X11/xorg.conf在Section "Device"中添加Option "NoLogo" "True"如:Section "Device"
Identifier "通用顯示卡"
Driver "nvidia"
Option "NoLogo" "True"
EndSection
以上就是Ubuntu安裝NVIDIA顯卡驅動的步驟。