文档章节

Python3.5 Windows 7下 利用百度识图来获得图片信息

M
 MichaelShu
发布于 2017/08/16 10:16
字数 589
阅读 49
收藏 0
#!/usr/bin/python

from PIL import Image
from PIL import ImageFilter
import urllib
import requests
import re
import json

# hack CERTIFICATE_VERIFY_FAILED
# https://github.com/mtschirs/quizduellapi/issues/2
import ssl

if hasattr(ssl, '_create_unverified_context'):
    ssl._create_default_https_context = ssl._create_unverified_context


UA = 'User-Agent:Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.78 Safari/537.36'

pic_url = "https://kyfw.12306.cn/otn/passcodeNew/getPassCodeNew?module=login&rand=sjrand&0.21191171556711197"

'''
def get_img():
    resp = urllib.urlopen(pic_url)
    raw = resp.read()
    with open("./tmp.png", 'wb') as fp:
        fp.write(raw)

    return Image.open("./tmp.jpg")
'''

def get_img(im):
    (WITH,HEIGHT) = im.size
    print("WITH = %d,HEIGHT = %d"%(WITH,HEIGHT))
    left = 0
    top = 0
    right = left + WITH
    bottom = top + HEIGHT

    return im.crop((left, top, right, bottom))


def baidu_image_upload(im):
    url = "http://image.baidu.com/pictureup/uploadshitu?fr=flash&fm=index&pos=upload"

    im.save("./tmp.png")
    raw = open("./tmp.png", 'rb').read()

    files = {
        'fileheight': "0",
        'newfilesize': str(len(raw)),
        'compresstime': "0",
        'Filename': "image.png",
        'filewidth': "0",
        'filesize': str(len(raw)),
        'filetype': 'image/png',
        'Upload': "Submit Query",
        'filedata': ("image.png", raw)
    }

    resp = requests.post(url, files=files, headers={'User-Agent': UA})

    #print("resp.text = %s"%resp.text)
    #  resp.url
    redirect_url = "http://image.baidu.com" + resp.text
    return redirect_url


def baidu_stu_lookup(im):
    redirect_url = baidu_image_upload(im)

    # print redirect_url
    #print("1111111111redirect_url = %s"%redirect_url)
   
    resp = requests.get(redirect_url)

    html = resp.text
    #print("2222222222resp.text = %s"%resp.text)
    return baidu_stu_html_extract(html)


def baidu_stu_html_extract(html):
    pattern = re.compile(r"'multitags':\s*'(.*?)'")
    matches = pattern.findall(html)
    if not matches:
        print("Not match")
        return '[ERROR?]'
    else:
        print("Match")
   
    tags_str = matches[0]
   
    for item in matches:
        print("item = %s"%item)
   
    #print("tags_str = %s"%tags_str)
    result = list(filter(None, tags_str.replace('\t', ' ').split()))

    return '|'.join(result) if result else '[UNKOWN]'


def ocr_question_extract(im):
    # git@github.com:madmaze/pytesseract.git
    global pytesseract
    try:
        import pytesseract
    except:
        print("[ERROR] pytesseract not installed")
        return
   
    (width, height) = im.size
    im = im.crop((0, 0, width, height))
    im = pre_ocr_processing(im)
    #im.show()
    return pytesseract.image_to_string(im, lang='chi_sim').strip()


def pre_ocr_processing(im):
    im = im.convert("RGB")
    (width, height) = im.size

    white = im.filter(ImageFilter.BLUR).filter(ImageFilter.MaxFilter(23))
    grey = im.convert('L')
    impix = im.load()
    whitepix = white.load()
    greypix = grey.load()

    for y in range(height):
        for x in range(width):
            greypix[x, y] = min(255, max(255 + impix[0,0][0] - whitepix[x, y][0],
                         255 + impix[0,0][1] - whitepix[x, y][1],
                         255 + impix[0,0][2] - whitepix[x, y][2]))

    new_im = grey.copy()
    binarize(new_im, 150)
    return new_im

def binarize(im, thresh=120):
    assert 0 < thresh < 255
    assert im.mode == 'L'
    w, h = im.size
    for y in range(0, h):
        for x in range(0, w):
            if im.getpixel((x, y)) < thresh:
                im.putpixel((x, y), 0)
            else:
                im.putpixel((x, y), 255)


if __name__ == '__main__':
    # im = get_img()
    im = Image.open("tmp.jpg")

    '''
    try:
        print('OCR Question:', ocr_question_extract(im))
    except Exception as e:
        print ('<OCR failed>', e)
   '''

    im2 = get_img(im)

    result = baidu_stu_lookup(im2)
    print(result)

将一张名为tmp.jpg的jpeg图片放在代码目录下:

显示结果如下:

E:\Python35\python.exe E:/PycharmProjs/baidushitu/baidushitu.py
WITH = 500,HEIGHT = 440
Match
item = 小鸡  哈多利博美  荷兰猪 豚鼠 鸡雏 鸡蛋孵小鸡
小鸡|哈多利博美|荷兰猪|豚鼠|鸡雏|鸡蛋孵小鸡

Process finished with exit code 0

本来是想用来识别12306抢票的验证码,但百度识图的识别率不高,其他的也试了,现在都不太高,所以就在想想有什么好的值得研究推荐下

© 著作权归作者所有

共有 人打赏支持
M
粉丝 3
博文 97
码字总数 20757
作品 0
海淀
技术主管
私信 提问
【互联网人必备】最实用的6大专业搜索工具

播妞的一位朋友,用了将近10年电脑。但他的信息检索能力令人诧异。每次需要找点图片、网站甚至小电影,都需要用很久时间,在各大网站论坛里里疲于奔波。 因为他只会用百度和360啊! 然而,百...

Lunaqi
2017/11/28
0
0
百度图片搜索功能内测

11月11日获悉,百度内部开始测试识图搜索(shitu.baidu.com),可以寻找某一图片的类似图片。目前这一搜索功能外部无法使用,也没有正式推出的时间。 去年4月,Google实验室就曾推出“相似图片...

老古董
2010/11/12
1K
11
Tensorflow+cuda+cudnn+window+Python之window下安装TensorFlow

这篇文章主要讲TensorFlow在原生Windows下的安装教程。 安装环境:TensorFlow0.12+cuda8.0+cudnn v5.1+window7+python3.5 (1) 先安装Python3.5 从官网下载Python3.5,https://www.python.or...

Flying_sfeng
2017/02/27
0
0
零基础爬虫学习全记录2:今日头条指定搜索内容下的所有图集图片保存——图片采集小程序

零基础爬虫学习全记录 无论仅仅有多少基础,都不该在徘徊和犹豫中浪费! 只有放弃幻想,用行动促进思考,才能最快找到想要的路。 背景: 没有任何编程基础的金融学专业学生,C语言都没接触过...

无小意丶
2017/10/27
0
0
深度学习框架TensorFlow入门-windows10系统

1.环境: windows10系统 python3.5 Nvidia显卡(cpu版本不需要) (建议安装anaconda集成环境,——(安装python3.5版本,并起名为py35,激活python3.5) CUDA:它所作用的对象是显卡,也就是...

可汗爷爷
2017/12/24
0
0

没有更多内容

加载失败,请刷新页面

加载更多

w, vmstat, top, sar, nload命令查看系统状态信息

w/uptime 查看系统负载 cat /proc/cpuinfo 查看cpu核数 vmstat 监控系统状态,用法 vmstat 1,关键的几列: r, b, swpd, si, so, bi, bo, us, wa top 查看进程使用资源情况 top -c 显示详细的...

野雪球
59分钟前
1
0
小白创建一个spring boot项目

进入 https://start.spring.io/

lilugirl
今天
2
0
Alibaba Java诊断利器Arthas实践--使用redefine排查应用奇怪的日志来源

背景 随着应用越来越复杂,依赖越来越多,日志系统越来越混乱,有时会出现一些奇怪的日志,比如: [] [] [] No credential found 那么怎样排查这些奇怪的日志从哪里打印出来的呢?因为搞不清...

hengyunabc
今天
2
0
home hosts

home hosts lwk@qwfys:~$ cat /etc/hosts127.0.0.1 localhost127.0.1.1 qwfys192.168.56.101vm600.qwfys.com39.108.212.91alpha1.ppy.com39.108.117.122alpha2.p......

qwfys
今天
3
0
大数据教程(6.1)hadoop生态圈介绍及就业前景

1. HADOOP背景介绍 1.1、什么是HADOOP 1.HADOOP是apache旗下的一套开源软件平台 2.HADOOP提供的功能:利用服务器集群,根据用户的自定义业务逻辑,对海量数据进行分布式处理 3.HADOOP的核心组...

em_aaron
今天
5
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部