
节点
整个集群分包含4个节点,如下:
| 节点 | IP地址 | 服务 |
| debian0 | 192.168.56.100 | pd server + tidb server |
| debian1 | 192.168.56.101 | tikv server |
| debian2 | 192.168.56.102 | tikv server |
| debian3 | 192.168.56.103 | tikv server |
| 虚拟机 | 机器名称 | 系统 | 配置 | 安装 |
| Virtual Box | debian0 | Debian 8.6.0 bit | CPU:单核 内存:1GB 硬盘:8G 双网卡 | 交换空间:1GB boot分区:200MB 逻辑分区:6.8GB |
| debian1 | ||||
| debian2 | ||||
| debian3 |
TiDB通过网络进行在线安装。根据官方文档,执行下列命令,从网络服务器下载最新的安装包。
wget http://download.pingcap.org/tidb-latest-linux-amd.tar.gz
wget http://download.pingcap.org/tidb-latest-linux-amd.sha256
两个程序下载完成后,执行下列命令对下载文件进行完整性检查
sha2sum -c tidb-latest-linux-amd.sha256
检查完整性后,会返回ok,表示正确。然后通过以下命令解压文件。
tar -xzf tidb-latest-linux-amd.tar.gz
将解压后的文件夹移动到/usr/bin文件夹下:
mv tidb-latest-linux-amd /usr/bin
到/usr/bin文件夹下,修改tidb-latest-linux-amd文件夹名称为tidb
cd /usr/bin
mv tidb-latest-linux-amd tidb
文件配置
用下列命令进入debian0节点的/usr/bin/tidb/conf文件夹并打开pd.toml配置文件。
cd /usr/bin/tidb/conf
nano pd.toml
效果如下:
修改相关配置,具体如下:
name=”tidb_pd”
data-dir=”/home/tidb”
client-urls=”http://192.168.56.100:2379”
peer-urls=”http://192.168.56.100:2380”
advertise-peer-urls=”http://192.168.56.100:2380”
initial-cluster=”tidb_pd=http://192.168.56.100:2380”
除上述内容外,其他配置项均保持默认值。
修改三个节点的tikv配置文件,具体配置内容如下:
addr=”192.168.56.101:20160”(各个节点的IP地址)
store = "/home/tikv/store "(默认配置为/tmp/tikv/store)
endpoints=”192.168.56.100:2379”(PD的IP地址)
store的默认配置为/tmp/tikv/store,此处一定要修改。如果使用默认值,linux重启时会删除该路劲下的所有文件。导致tikv-server无法成功启动。tikv-server无法启动会导致后面的tidb-server无法启动。
启动服务
由于TiDB没有后台守护进程,为了在debian0节点同时启动pd server和tidb server,所以启动服务时采用nohup命令。此处暂不对输出日志进行重定向,所有输出日志保存在/usr/bin/tidb/bin文件夹下。按下列顺序依次启动各个节点的服务。
1.启动pd server。进入pd-server程序所在目录/usr/bin/tidb/bin。执行以下命令。
nohup ./pd-server -config=/usr/bin/tidb/conf/pd.toml &
可用下列命令检查服务在后台是否启动:
netstat -nletp | grep pd-server
上述输出表示pd-server在后台启动成功。
2.启动tikv server。进入tikv-server程序所在目录/usr/bin/tidb/bin。执行以下命令。需要对三个节点做相同操作。
nohup ./tikv-server --config=/usr/bin/tidb/conf/tikv.toml &
3.启动tidb server。该服务与pd server在同一个节点(debian0)。进入tidb-server程序所在目录/usr/bin/tidb/bin。执行以下命令。
nohup ./tidb-server --store=tikv --path=”192.168.56.100:2379”&
--store=tikv为分布式是的引擎
用以下命令查看tidb服务是否后台启动成功
netstat -nltp | grep tidb
通过以下网址查看tidb状态:
http://192.168.56.100:10080/status
通过以下网址查看集群状态,集群状态通过查看pd服务信息既可看到tikv信息。
http://192.168.56.100:2379/pd/api/v1/stores
至此,通过上述操作,tidb的集群安装启动成功。
连接
集群启动完成后,可以通过mysql的官方工具Mysql Workbench进行连接。新建连接后,录入tidb-server的服务器地址和端口号,用户用root进行登陆。具体如下图所示。(注:连接前一定确认tidb-server启动成功)
连接效果如下:
性能
在test数据库中创建以下两张表
test.flightinfo
| 编号 | 字段 | 类型 |
| 1 | flid | INT |
| 2 | ffid | VARCHAR(32) |
| 3 | flio | CHAR(1) |
| 4 | awcd | CHAR(2) |
| 5 | flno | VARCHAR(16) |
| 6 | fltk | VARCHAR(8) |
| 7 | fexd | DATE |
| 8 | fatt | VARCHAR(4) |
| 9 | cftp | VARCHAR(8) |
| 10 | cfno | VARCHAR(12) |
| 11 | stas | VARCHAR(4) |
| 12 | fptt | DATETIME |
| 13 | fett | DATETIME |
| 14 | frtt | DATETIME |
| 15 | ters | VARCHAR(4) |
| 16 | fplt | DATETIME |
| 17 | felt | DATETIME |
| 18 | frlt | DATETIME |
| 编号 | 字段 | 类型 |
| 1 | idinstime | INT |
| 2 | starttime | DATETIME |
| 3 | endtime | DATETIME |
耗时记录:
平均每秒写入216条记录。
TiDB Server横向扩展
添加TiDB Server节点debian4,整个集群节点具体如下:
| 节点 | IP地址 | 服务 |
| debian0 | 192.168.56.100 | pd server + tidb server |
| debian1 | 192.168.56.101 | tikv server |
| debian2 | 192.168.56.102 | tikv server |
| debian3 | 192.168.56.103 | tikv server |
| debian4 | 192.168.56.104 | tidb server |
| 虚拟机 | 机器名称 | 系统 | 配置 | 安装 |
| Virtual Box | debian0 | Debian 8.6.0 bit | CPU:单核 内存:1GB 硬盘:8G 双网卡 | 交换空间:1GB boot分区:200MB 逻辑分区:6.8GB |
| debian1 | ||||
| debian2 | ||||
| debian3 | ||||
| debian4 |
在debian4节点的TiDB Server启动完成后,可以通过mysql workbench建立新的连接来只想集群。
点击Test Connection后,弹出以下测试连接成功对话框,证明TiDB Server的新节点扩展成功。
