连击 天
fork: star:
一、安装PostgreSQL13 以root身份运行如下命令 rpm -ivh postgresql13-libs-13.1-3PGDG.rhel7.x86_64 rpm -ivh postgresql13-13.1-3PGDG.rhel7.x86_64 rpm -ivh postgresql13-server-13.1-3...
Index A B C D 1 10 2 8 8 2 9 3 8 简化业务描述后,需求为: 有表格如上,A列及第一行可以直接给出,其余空白字段要求按公式算出。 公式: 1) B[x] = A[x]-1 2) C[x] = A[x] - B[x] 3) D[x]...
通过shell执行mysql脚本时,如果在参数中指定了密码,就会有如下提示 mysql: [Warning] Using a password on the command line interface can be insecure. 虽然不影响sql脚本的执行,但是看...
一、beeline格式的问题 beelined输出格式在纯命令行下看起来很整齐。 但有时候很不方便,特别是通过shell获取建表语句或数据集的时候,还要额外处理输出格式。 其实有办法控制beeline输出格式...
idea插件离线安装 1.idea插件市场地址 http://plugins.jetbrains.com/ 2.查询并下载想要安装的插件 3.将下载的插件(zip包)拖入软件中,即可自动安装 vscode插件离线安装 1.vscode插件市场地...
代码错误提交,想要删除,花了点时间解决了,记录如下。 使用git命令查看提交记录,获取最后一次提交记录的ID。假设这个ID为"4d575g7cf015e09fbf0fa6y28d11d73248db5gfc"。 然后如下操作: ...
前段时间写了一个数据导入工具,数据导入的路径为Hadoop-->公司自研的时序数据库。运行一段时间后发现出现Kerberos认证过期的问题。日志如下: 一开始很奇怪,因为额外开了一个线程,每隔8小...
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/ conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/...
看一个Java方法调用栈(caller和callee两个方向) 菜单: Navigate | Call Hierarchy 快捷键: Ctrl+Alt+H 查看类关系图 菜单: 在包或类上右键点击Diagram 快捷键: Ctrl+Alt+U 查看表达式、变量...
1. jackson依赖包 <dependency> <groupId>com.fasterxml.jackson.core</groupId> <artifactId>jackson-databind</artifactId> <version>2.9.8</version> </dependency> <dependency> <gr......
header设置 Content-Type 要设置为 multipart/form-data; boundary=; Body设置
验证环境:Elasticsearch 6.5.1 1.下载ElasticSearch 2.解压并复制多份(份数与实例数相同) 3.修改配置文件 3.1 修改jvm.options -Xms4g -Xmx4g 3.2 修改elasticsearch.yml 3.2.1 master节点...
验证环境:Elasticsearch 6.5.1 1.Chrome插件 插件链接::https://chrome.google.com/webstore/detail/elasticsearch-head/ffmkiejjmecolpfloofpjologoblkegm 服务器不需要安装任何软件,在地...
下载Nginx wget http://nginx.org/download/nginx-1.15.8.tar.gz tar -xzf nginx-1.15.8.tar.gz 安装编译组件 yum install gcc gcc-c++ automake pcre pcre-devel zlip zlib-devel openssl o...
import java.util.UUID import org.apache.spark.SparkConf import org.apache.spark.sql.SparkSession object SparkReadFile { object JobType extends Enumeration { val LOCAL = Value .....
import java.util.{Properties, UUID} import org.apache.spark.sql.{SaveMode, SparkSession} import org.apache.spark.SparkConf object SparkReadMySQL { def main(args:Array[String]):U...
没有更多内容
加载失败,请刷新页面
文章删除后无法恢复,确定删除此文章吗?
动弹删除后,数据将无法恢复
评论删除后,数据将无法恢复