文档章节

PixelNet

二胡艺
 二胡艺
发布于 2017/03/03 19:01
字数 362
阅读 16
收藏 0

(一)基于googlenet的model

%matplotlib inline
import numpy as np
import cv2
import caffe
import matplotlib.pyplot as plt

model='deploy.prototxt'
weight = 'bvlc_googlenet.caffemodel'
filename='../images/2007_002619.jpg'
caffe.set_mode_gpu()
net = caffe.Net(model,weight,caffe.TEST)
transformer = caffe.io.Transformer({'data':(10,3,224,224)})
transformer.set_transpose('data',(2,0,1))
#transformer.set_mean('data',np.load(meanfile).mean(1).mean(1))
transformer.set_raw_scale('data',255)
transformer.set_channel_swap('data',(2,1,0))

img = caffe.io.load_image(filename)
net.blobs['data'].data[...] = transformer.preprocess('data',img)
net.forward()
blob = net.blobs['prob'].data[0]
idx = blob.argmax()
plt.imshow(img)
print idx,blob[idx]

#for layer_key,layer_blob in net.blobs.iteritems():
#    print layer_key,layer_blob.data.shape
584 0.257885

输入图片说明

(二)可视化feature

def vis(data):
    _,C,H,W = data.shape
    d = data[0]
    n = int(np.sqrt(C))
    k = 1
    plt.figure(figsize=(64,64))
    for c in range(C):
        plt.subplot(n,n+1,k)
        k += 1
        img = d[c,:,:]
        plt.imshow(img,cmap='jet');plt.axis('off')
    plt.show()

def vis_k(data):
    print data.shape
    N,C,H,W = data.shape
    d = data[0]
    nc = 16
    k = 1
    if(N > 64):
        N = 10
    nr = int(N * C / nc)
    plt.figure(figsize=(64,64))
    for n in range(N):
        for c in range(C):
            img = data[n,c,:,:]
            plt.subplot(nr+1,nc,k)
            k += 1
            plt.imshow(img,cmap='jet');plt.axis('off')
    plt.show()
    
data = net.blobs['conv1/7x7_s2'].data
vis(data)
kernel = net.params['conv2/3x3'][0].data
#print kernel.shape
#vis_k(kernel)

输入图片说明

(三)提取feature map 的hyperColumn,然后用kmean进行聚类

from sklearn.cluster import KMeans

def upsample(data,size=(224,224)):    
    C,H,W = data.shape
    data_ = np.zeros((C,size[0],size[1]))
    for c in range(C):
        im = data[c,:,:]
        im = cv2.resize(im,size)
        data_[c,:,:] = im
    return data_
def hyperColumn(data):
    C,H,W = data.shape
    data_ = np.zeros((H * W,C))
    for h in range(H):
        for w in range(W):
            d = data[:,h,w]
            data_[h*W+w,:]=d
    return data_

conv1 = net.blobs['conv1/7x7_s2'].data[0]
conv2 = net.blobs['conv2/3x3'].data[0]
conv3 = net.blobs['inception_3a/1x1'].data[0]
conv1_ = upsample(conv1,size=(224,224))
conv2_ = upsample(conv2,size=(224,224))
conv3_ = upsample(conv3,size=(224,224))
data = np.concatenate((conv1_,conv2_,conv3_),axis=0)
trainData = hyperColumn(data)
clf = KMeans(n_clusters=5,max_iter=5000,n_init=5,n_jobs=-1)
clf.fit(trainData)
label = clf.labels_
result = label.reshape(224,224)
plt.imshow(result)

输入图片说明

© 著作权归作者所有

共有 人打赏支持
二胡艺
粉丝 3
博文 42
码字总数 12555
作品 0
镇江
程序员
私信 提问

暂无文章

Mariadb二进制包安装,Apache安装

安装mariadb 下载二进制包并解压 [root@test-a src]# wget https://downloads.mariadb.com/MariaDB/mariadb-10.2.6/bintar-linux-glibc_214-x86_64/mariadb-10.2.6-linux-glibc_214-x86_64.t......

野雪球
今天
3
0
ConcurrentHashMap 高并发性的实现机制

ConcurrentHashMap 的结构分析 为了更好的理解 ConcurrentHashMap 高并发的具体实现,让我们先探索它的结构模型。 ConcurrentHashMap 类中包含两个静态内部类 HashEntry 和 Segment。HashEnt...

TonyStarkSir
今天
3
0
大数据教程(7.4)HDFS的java客户端API(流处理方式)

博主上一篇博客分享了namenode和datanode的工作原理,本章节将继前面的HDFS的java客户端简单API后深度讲述HDFS流处理API。 场景:博主前面的文章介绍过HDFS上存的大文件会成不同的块存储在不...

em_aaron
昨天
4
0
聊聊storm的window trigger

序 本文主要研究一下storm的window trigger WindowTridentProcessor.prepare storm-core-1.2.2-sources.jar!/org/apache/storm/trident/windowing/WindowTridentProcessor.java public v......

go4it
昨天
7
0
CentOS 生产环境配置

初始配置 对于一般配置来说,不需要安装 epel-release 仓库,本文主要在于希望跟随 RHEL 的配置流程,紧跟红帽公司对于服务器的配置说明。 # yum update 安装 centos-release-scl # yum ins...

clin003
昨天
11
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部