加载中
python版opencv

python版opencv使用resize调整图片大小: res = cv2.resize(img,None,fx=0.6, fy=0.6, interpolation = cv2.INTER_CUBIC)。 from PIL import ImageGrab是对电脑屏幕的截屏,而不是对浏览器的...

2014/11/02 20:43
43
大麦网爬虫总结

json库 第一次使用json库,接受的输入是字典或者列表,但是列表输出的结果不像是json,有很多“[”、“]”,但是将字典转json的话,顺序就乱了,字典内部本来就是无序的,之前特别傻,还想了...

2014/09/07 23:54
201
gre

1.数学词汇,网上找出来看看 2.写作多用gre词汇 3.gre更多还是一个应试考试

2014/07/29 20:48
12
读书

人要对自己40以后的容貌负责,40以后的容貌已经不止是先天的了,经历都在脸上。 王家卫拍电影前整合所有的资料,自己精通以后再让编剧写剧本。王家卫的电影用的素材,都是其他导演要扔掉的、...

2014/07/27 14:57
23
词汇笔记

Here is but only a tiny sliver of words beginning with “in” that you can expect to see on the test. How many of the words below do you confidently know? Incite Not to be conf...

2014/07/25 00:22
12
看过的文献3

看国外专门针对gre考试的博客真是个好办法,可惜不是很好找

2014/07/24 23:01
15
看过的文献2

Hedonism Aristippus of Cyrene (/ˌærəˈstɪpəs/; Greek: Ἀρίστιππος; c. 435 – c. 356 BCE) was the founder of the Cyrenaic school of Philosophy.[1] He was a pu...

2014/07/24 12:03
9
看过的文献1

Charge of Socrates with impiety Impiety is heresy, not believing in the Gods the State believed in but he was also accused of teaching false gods. One of his arguments was that ...

2014/07/23 23:25
16
gre中一些文艺词汇的学习

impious 关于这个词最著名的故事应该就是苏格拉底受到的“不信神”的指控。

2014/07/23 22:46
20
斯坦福NLP笔记 —— Semantics

第一节 讲了词与词之间的各种关系,最后教授强调Hyponyms和Instance的区别: 前者指的是class与class之间的关系,后者指的是individual与class之间的关系 第二节 介绍了两个词典(thesaurus...

2014/07/23 15:43
167
斯坦福NLP笔记75 —— Introducing Ranked Retrieval

基本是一些tdidf的基本概念,先跳过。

2014/07/23 15:29
28
斯坦福NLP笔记74 —— Phrase Queries and Positional Indexe

这一节讲的是前面index的term如果是一个phrase的时候怎么办,有些地方没太懂。 主要介绍的算法是position index,就是在前面存posting的时候除了存下doc的ID,也存下该term在该doc中出现的位...

2014/07/23 12:49
36
斯坦福NLP笔记73 —— Query Processing with the Inverted I

"AND"类的查询处理 假设有上述的Inverted Index结构,现在的问题是要找出两个同时包含了Brutus和Caesar的doc,尽管这个问题一点不复杂,教授依然给出了详细的算法步骤: 分别用两个指针指向上...

2014/07/23 09:37
48
斯坦福NLP笔记72 —— The Inverted Index

Inverted Index是信息抽取里最常用的数据结构,来看看他长啥样: Brutus指向数字X则代表X号文档中包含了Brutus这个词。 左边的索引词称为Dictionary,右边的文档ID称为Posting,是排好序的。 ...

2014/07/22 12:10
45
斯坦福NLP笔记71 —— Term-Document Incidence Matrices

这一节主要讲的是Term-Document矩阵的稀疏性(sparsity) 考虑这样一个大的文本集collection: 一共有N=100万篇文档,平均每篇文档包含一千个词,存下这些文档大约需要6GB的空间,这还好。 ...

2014/07/22 11:20
46
斯坦福NLP笔记70 —— Introduction to Information Retrieva

信息抽取的概念和评估

2014/07/22 11:02
26
斯坦福NLP笔记50 —— Semi-Supervised and Unsupervised Rel

通过seed寻找模式,然后反复迭代

2014/07/20 18:14
46
斯坦福NLP笔记49 —— Supervised Relation Extraction

上一节说了手工建立模式的过程,以及其优缺点,这一节该讲更通用的监督学习了。 教授首先提到在监督学习中判断实体关系时往往采用两个分类器,第一个用于判断两个实体(entity pairs)是否有...

2014/07/20 17:47
341
斯坦福NLP笔记48 —— Using Patterns to Extract Relations

上一节最后讲到了建立一个extractor的方法,手工建立和机器学习等,这一节详细阐述手工建立pattern的方法。引用Jurafsky教授常说的话: let's look at the intuition. Jurafsky教授讲话总是微...

2014/07/20 17:06
1K

没有更多内容

加载失败,请刷新页面

返回顶部
顶部