闪酷跑路网

一行行枯燥的代码,却描绘出人生的点点滴滴

推荐文章

CUDA Runtime API 集锦

    CUDA Runtime API 汇总1.      cudaChooseDevice: select compute-device which best matches criteria;2.      cudaDeviceGetAttribute: returns information about the device;3.      cudaDeviceGetByPCIBusld: returns a handle to a compute device;4.      cudaDeviceGetCacheConfig:returns the p

    阅读全文>>

作者:coody分类:【_CUDA浏览(1309

2018-12-15

CUDA 四 - device管理

    CUDA 4 ---- device管理device管理 NVIDIA提供了集中凡是来查询和管理GPU device,掌握GPU信息查询很重要,因为这可以帮助你设置kernel的执行配置。 本博文将主要介绍下面两方面内容: CUDA runtime API function NVIDIA系统管理命令行 使用runtime API来查询GPU信息 你可以使用下面的function来查询所有关于GPU device 的信息: cudaError_t cudaGetDeviceProperties(cudaDeviceProp *prop, int device); GPU的信息放在cudaDeviceProp这个结构体中。 代码 #include <cuda_runtime.h>#include <stdio.h>int main(int&nb

    阅读全文>>

作者:coody分类:【_CUDA浏览(1558

2018-12-15

CUDA - Shared Memory

    CUDA ---- Shared MemoryCUDA SHARED MEMORY shared memory在之前的博文有些介绍,这部分会专门讲解其内容。在global Memory部分,数据对齐和连续是很重要的话题,当使用L1的时候,对齐问题可以忽略,但是非连续的获取内存依然会降低性能。依赖于算法本质,某些情况下,非连续访问是不可避免的。使用shared memory是另一种提高性能的方式。 GPU上的memory有两种: · On-board memory · On-chip memory global memory就是一块很大的on-board memory,并且有很高的latency。而shared memory正好相反,是一块很小,低延迟的on-chip memory,比global memory拥有高得多的带宽。我们可以把他当做可编程的cache,

    阅读全文>>

作者:coody分类:【_CUDA浏览(1131

2018-12-13

Caffe+Ubuntu14.04+CUDA7.5装配笔记

    Caffe+Ubuntu14.04+CUDA7.5安装笔记为什么我一写新文章就把原来的覆盖了。。。。我明明是写新博客的,怎么会变成编辑第一篇文章呢………郁闷,现在又要重新写….再丢老子就不玩了 ubuntu 14.04安装 先到官网下载ubuntu14.04,网址:http://www.ubuntu.com/download/desktop ubuntu-14.04.4-desktop-amd64.iso 参考:Ubuntu14.04 安装及使用:[1]制作安装U盘 制作安装U盘 然后参考:Ubantu14.04安装教程 安装系统 分区: boot 设置 200M 主分区 / 设置 50000M swap 设置 4000M home 设置 剩余M cuda7.5安装 cuda7.5下载:地址 https://developer

    阅读全文>>

作者:coody分类:【_CUDA浏览(1632

2018-12-12

【CUDA并行程序设计系列(四)】CUDA内存

    【CUDA并行程序设计系列(4)】CUDA内存前言 CUDA并行程序设计系列是本人在学习CUDA时整理的资料,内容大都来源于对《CUDA并行程序设计:GPU编程指南》、《GPU高性能编程CUDA实战》和CUDA Toolkit Documentation的整理。通过本系列整体介绍CUDA并行程序设计。内容包括GPU简介、CUDA简介、环境搭建、线程模型、内存、原子操作、同步、流和多GPU架构等。 本系列目录: 【CUDA并行程序设计系列(1)】GPU技术简介 【CUDA并行程序设计系列(2)】CUDA简介及CUDA初步编程 【CUDA并行程序设计系列(3)】CUDA线程模型 【CUDA并行程序设计系列(4)】CUDA内存 【CUDA并行程序设计系列(5)】CUDA原子操作与同步 【CUDA并行程序设计系列(6)】CUDA流与多GPU 关于CUDA的一些学习资料 本章将介绍CUDA的内存

    阅读全文>>

作者:coody分类:【_CUDA浏览(1573

2018-12-17

Caffe筹建:Ubuntu14.04 + CUDA7.5 + opencv3.1+python3.5

    Caffe搭建:Ubuntu14.04 + CUDA7.5 + opencv3.1+python3.5  从Hinton在science上发表深度学习训练开创新的文章以来,深度学习火了整整有3年多,而且随着新的硬件和算法的提出,深度学习正在应用于越来越多的领域,发挥其算法的优势。   实验室并没有赶上第一波深度学习热,但是让人高兴的是最近终于配了一台超级电脑,虽说和谷歌、百度几百个上千个GPU跑算法的设备不能比,但是好歹终于有了搭建自己的深度学习平台,想想还很是兴奋。最近这几天忙着搭建深度学习平台,把现在最火的Caffe框架代码跑通,从最初对ubuntu的菜鸟到现在顺利搭建起深度学习平台,中间走了很多弯路,现在把自己从系统安装到最后测试中遇到的问题及关键步骤记录下来,加深对caffe理解的同时,也方便自己后续安装时重新查找资料,避免浪费时间和精力。 机器配置: GPU:NVIDIA

    阅读全文>>

作者:coody分类:【_CUDA浏览(1989

2018-12-14

【CUDA并行程序设计系列(三)】CUDA线程模型

    【CUDA并行程序设计系列(3)】CUDA线程模型前言 CUDA并行程序设计系列是本人在学习CUDA时整理的资料,内容大都来源于对《CUDA并行程序设计:GPU编程指南》、《GPU高性能编程CUDA实战》和CUDA Toolkit Documentation的整理。通过本系列整体介绍CUDA并行程序设计。内容包括GPU简介、CUDA简介、环境搭建、线程模型、内存、原子操作、同步、流和多GPU架构等。 本系列目录: 【CUDA并行程序设计系列(1)】GPU技术简介 【CUDA并行程序设计系列(2)】CUDA简介及CUDA初步编程 【CUDA并行程序设计系列(3)】CUDA线程模型 【CUDA并行程序设计系列(4)】CUDA内存 【CUDA并行程序设计系列(5)】CUDA原子操作与同步 【CUDA并行程序设计系列(6)】CUDA流与多GPU 关于CUDA的一些学习资料 在前一章的代码虽然是

    阅读全文>>

作者:coody分类:【_CUDA浏览(2095

2018-12-16

Caffe + Ubuntu 15.04 + CUDA 7.0 装配以及配置

    Caffe + Ubuntu 15.04 + CUDA 7.0 安装以及配置 作为小码农的我,昨天就在装这个东东了,主要参考第一篇博文,但是过程发现很多问题,经过反反复复,千锤百炼,终于柳暗花明,我把这个caffe给搞定了,是故,我发布出来,后之来者,欲将有感于斯文~ 本分分为四个部分,在Ubuntu上调试运行成功,第一部分:nVidia驱动和CUDA Toolkit的安装和调试;第二部分 Python安装和调试;第三部分 Matlab安装和调试;第四部分 Caffe的安装和测试。 第一部分:nVidia驱动和CUDA Toolkit的安装和调试 这里以CUDA 7.0为例。 一、CUDA Repository 获取CUDA安装包,安装包请自行去NVidia官网下载。 $ sudo dpkg -i cuda-repo-ubuntu1410-7-0-local_7.0-28

    阅读全文>>

作者:coody分类:【_CUDA浏览(1587

2018-12-15

ubuntu Gnome 15.04 /ubuntu 12.04 装cuda 7.0心得贴

    ubuntu Gnome 15.04 /ubuntu 12.04 装cuda 7.0经验贴ubuntu Gnome 15.04 /ubuntu 12.04 装cuda 7.0经验贴 由于最近要跑caffe,还有要跑一些cuda程序,就边学边配置,一路装过来还真不容易,双系统(Window 7+ubuntu),做一个笔记以后留着来用: 前提工作:已经装好双系统,若没有装好,参考如下: 硬盘安装和U盘安装 [ Win7系统下硬盘安装Ubuntu 12.04双系统 ] 提示:在装好ubuntu系统后若发现,安装完成重启后默认启动为Ubuntu系统,则在程序—附件—终端(快捷键Ctrl+Alt+T)修改如下:sudo mv /etc/grub.d/30_os-prober /etc/grub.d/06_os-prober;然后会提示输入密码,输入完成后,执行下面命令:

    阅读全文>>

作者:coody分类:【_CUDA浏览(763

2018-12-12

显卡的有关性能参数含义(struct cudaDeviceProp)

    显卡的相关性能参数含义(struct cudaDeviceProp)中文译注(英文见下文):struct cudaDeviceProp {char name[256];         //器件的名字size_t totalGlobalMem;    //Global Memory 的byte大小size_t sharedMemPerBlock;   //线程块可以使用的共用记忆体的最大值。byte为单位,多处理器上的所有线程块可以同时共用这些记忆体int regsPerBlock;               &

    阅读全文>>

作者:coody分类:【_CUDA浏览(1504

2018-12-14

CUDA学习笔记2

    CUDA学习笔记二简单的向量加 /** * Vector addition: C = A + B. * * This sample is a very basic sample that implements element by element * vector addition. It is the same as the sample illustrating Chapter 2 * of the programming guide with some additions like error checking. */ #include <stdio.h> // For the CUDA runtime routines (prefixed with "cuda_") #include <cuda_runtime.h>

    阅读全文>>

作者:coody分类:【_CUDA浏览(1295

2018-12-16

实验室中筹建Spark集群和PyCUDA开发环境

    实验室中搭建Spark集群和PyCUDA开发环境1、安装CUDA 1.1安装前工作 1.1.1选取实验器材 实验中的每台计算机均装有双系统。选择其中一台计算机作为master节点,配置有GeForce GTX 650显卡,拥有384个CUDA核心。另外两台计算机作为worker节点,一个配置有GeForce GTX 650显卡,另外一个配置有GeForce GTX 750 Ti显卡,拥有640个CUDA核心。  在每台计算机均创建hadoop用户并赋予root权限,本文所有的操作都将在hadoop用户下进行。 1.1.2安装前准备 用以下命令来验证计算机有一个支持CUDA的GPU,只要型号存在于NVIDIA官网(https://developer.nvidia.com/cuda-gpus)就没问题: $ lspci | grep -i nvidia 用以下命令验证有一个支持CUD

    阅读全文>>

作者:coody分类:【_CUDA浏览(1481

2018-12-17

cuda学习2-block与thread数量的提选

    cuda学习2-block与thread数量的选取  由上一节可知,在main函数中,cuda程序的并行能力是在add<<<N,1>>>( dev_a, dev_b, dev_c )函数中体现的,这里面设置的是由N个block的构成的计算网络即grid,每一个block里面有1个thread存在。那么这种选取有什么用意呢,如何针对自己的计算问题设置计算网络呢?   首先要说明这两个数的选取没有固定的方法,完全是根据自身需求。其实它的完整形式是Kernel<<<Dg,Db, Ns, S>>>(param list);<<<>>>运算符内是核函数的执行参数,告诉编译器运行时如何启动核函数,用于说明内核函数中的线程数量,以及线程是如何组织的。   参数Dg用于定义整个grid的维度和尺寸,

    阅读全文>>

作者:coody分类:【_CUDA浏览(806

2018-12-15
上一页 1/5页 下一页