0%

MySQL新启动之后的基本操作

1
2
3
4
5
6
7
8
9
10
11
12
13
14
mysql -uroot -p 

>mysql use mysql;
>mysql select host, user, pulgin from user;
# 授权root用户获得所有权限
>mysql grant all on *.* to 'root'@'%'; flush privileges;
# 设置客户端使用password可登录
>mysql alter user 'root'%'%' identified with mysql_native_password by '{your_password}'; flush privileges;
# 创建B数据库(schema)
>mysql create schema B default character set utf8mb4 collate utf8mb4_general_ci;
# 创建A用户
>mysql create user 'A'%'%' identified by '{B_password}';
# 授权A用户获得B库的所有权限
>mysql grant all on B.* to 'A'%'%'; flush privileges;

介绍

各部分功能

ElasticSearch

elasticsearch是Elastic Stack的核心,它是一个分布式、RESTful 风格的搜索和数据分析引擎,能够集中存储并快速搜索大量的数据。它不仅包括了全文搜索功能,还可以进行以下工作:

  • 分布式实时文件存储,并将每一个字段都编入索引,使其可以被搜索。
  • 实时分析的分布式搜索引擎。
  • 可以扩展到上百台服务器,处理PB级别的结构化或非结构化数据。
Read more »

一、案例描述

现在使用Linux系统作为服务器已经非常普遍,无论是生态上还是稳定性上Linux系统都有它独特的优势。那么,如何去配置一套可用并且好用的环境来实现Python Web项目的部署呢?以Ubuntu系统为例,下面内容是个人的一些经验总结。

二、案例分析及解决过程

  1. 修改apt源地址为公司源,进行软件的安装与更新。修改/etc/apt/sources.list为以下内容:

    Read more »

Docker运行mongodb容器

思路是把mongodb跑在Docker的容器中,但把数据以及备份映射到主机中,以便容器的随时调整。在/var/lib目录下新建mongodb目录,并进入mongodb目录新建data以及backup目录。运行以下命令启动容器,并进入到容器中运行mongodb的交互命令。

1
2
3
docker run --name mongo -p 27017:27017 -v /var/lib/mongodb/data:/data/db -v /var/lib/mongodb/backup:/data/backup -d mongo --auth

docker exec -it mongo mongo admin

创建mongodb的管理员账户,并使用刚创建的管理员身份进行认证。新建数据库,然后为新建的数据库新建登录用户的身份就OK啦。

Read more »

安装Hexo环境

1
yarn global add hexo-cli

这时可能会找不到刚安装的 hexo-cli 在哪,可以使用命令

1
sudo find / -type d -name node_modules

最后找到在 /home/guo/.config/yarn/global/node_modules/hexo-cli/bin/hexo 中。建立可执行命令的软链接

1
sudo ln -s /home/guo/.config/yarn/global/node_modules/hexo-cli/bin/hexo /usr/local/bin/hexo

建立一个 Hexo 的新项目,初始化操作

1
2
3
hexo init lostrain
yarn install
yarn add hexo-deployer-git --save
Read more »

更换docker源地址以及设置docker镜像存放地址

sudo vim /etc/docker/daemon.json 输入内容为

1
2
3
4
{
"registry-mirrors": ["https://registry.docker-cn.com"],
"graph": "/home/guo/images"
}

sudo service docker restart
之后使用docker info命令可以看到

Read more »

类型一: 页面上可以直接抓取到内容

此类爬虫比较简单,一般直接使用requests得到网页的内容后,正则匹配出要抓取的内容即可

1
2
3
4
5
6
7
8
9
10
11
import re
import requests

url = 'https://www.liaoxuefeng.com/wiki/0014316089557264a6b348958f449949df42a6d3a2e542c000/001431608990315a01b575e2ab041168ff0df194698afac000'
res = requests.get(url)
result = re.findall('img src="(\S+)"', res.text)
for i in result:
if not i.startswith("http"):
print("https://www.liaoxuefeng.com" + i)
else:
print(i)
Read more »