git 操作

查看当前在那个分支 git branch 创建分支并切换分支 git checkout -b chart 查看栈存区修改的文件 git status 添加代码到栈存区 git add . 提交代码到仓库中 git commit -m "xxx" 提交代码到...

git
2020/08/25 22:19
55
学习Java--个人笔记

一维数组的初始化方式 基本类型的数组(数据元素为基本类型)创建后,其元素的初始值:byte、short、char、int、long为0;float和double为0.0;boolean为false。 可以在数组声明的同时进行初...

2020/07/11 13:57
54
docker安装es

拷贝容器的配置文件到当前目录(以nginx为例): docker container cp nginx:/etc/nginx . 0.安装nginx docker run -p 80:80 --name nginx -v /mydata/nginx/html:/usr/share/nginx/html -v /...

Bloom Filter的对接

14.4 Bloom Filter 的对接 首先回顾一下 Scrapy-Redis 的去重机制。Scrapy-Redis 将 Request 的指纹存储到了 Redis 集合中,每个指纹的长度为 40,例如 27adcc2e8979cdee0c9cecbbe8bf8ff51e...

2020/04/10 15:57
73
学习typescript笔记

1.ts+react 创建 react---- npx create-react-app react-project --template typescript --use-npm

2020/04/07 13:18
74
python3+阿里云发短信

from aliyunsdkcore.client import AcsClient from aliyunsdkcore.request import CommonRequest client = AcsClient('LTAI4Fkgi7DUf6jCVW3KNGwT', 'ynr6TWWNOnpALn3YUICUaXwpp9w4er', 'cn-h...

2020/03/27 14:51
656
requests+ajax爬虫

import requests import logging import json from os import makedirs from os.path import exists logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(levelname)s......

2020/03/26 13:21
173
Python3--监控疫情

import requests import json from pyecharts.charts import Map, Geo from pyecharts import options as opts from pyecharts.globals import GeoType, RenderType url = 'https://view.ine...

2020/02/11 16:51
552
Numpy和pandas的使用技巧

导入数据 pd.read_csv(filename) 从CSV文件导入数据 pd.read_table(filename) 从限定分隔符的文本文件导入数据 pd.read_excel(filename) 从Excel文件导入数据 pd.read_sql(query, connectio...

2020/01/16 09:54
189
笔试题

''' 字符A-Z可以编码为1-26。"A"->"1", "Z"->"26" 现在输入一个数字序列,计算有多少种方式可以解码成字符A-Z组成的序列。 例如: (1)输入:19 输出:2 (2)输入:268 输出:2 (3)输入:219 输...

2019/12/25 09:04
140
神箭手js爬取房天下--完整版

一、列表页 var configs = { domains: ["fang.com"], scanUrls: [ "http://office.fang.com/shou/house/", "http://sh.office.fang.com/shou/house/", "http://tj.office.fang.com/shou/hous...

2019/12/17 16:14
131
神箭手js爬取房天下

/* 神箭手云_爬虫开发 支持原生JavaScript 开发教程:http://docs.shenjian.io/develop/crawler/doc/concept/crawler.html */ var configs = { domains: ["fang.com"], // scanUrls: ["https...

没有更多内容

加载失败,请刷新页面