Hadoop生态圈

  • Linux
    • 1.修改ip地址
    • 2.重启network服务
    • 3.安装插件
    • 4.关闭防火墙
    • 5.创建用户
    • 6.创建目录
    • 7.修改目录的所属主和所属组为lxy
    • 8.修改主机名:hadoop102 (注意名字后面不要加空格)
    • 9.修改hosts文件
    • 10.等插件都装完后再重启Linux
    • 11.把xshell的登录用户换成lxy (注意:不要用root切到lxy 而是直接使用lxy登录)
  • JDK安装(建议和Hadoop一起安装,改的文件都一样,一起改!)
    • 1.将jdk的压缩包上传到linux的/opt/software目录中
    • 2.解压
    • 3.配置环境变量
      • 3.1 在/etc/profile.d中创建xxx.sh(在这我们统一叫 my_env.sh)
      • 3.2 让环境变量生效
    • 4.测试
  • Hadoop安装(上面整过了这块儿不用搞了)
    • 1.将Hadoop的压缩包上传到linux的/opt/software
    • 2.解压压缩包
    • 3.配置环境变量
    • 4.让环境变量生效
    • 5.测试
  • 克隆两台
  • 单机模式
    • 一 准备数据
    • 二 运行程序
    • 三 查看结果
  • 分布式集群搭建
    • 1.scp的使用
    • 2.rsync的使用
    • 3.ssh配置
      • 生成私钥和公钥
    • 4.xsync脚本的使用
    • 5.集群部署规划
    • 6.修改配置文件
      • 配置core-site.xml
      • 配置hdfs-site.xml
      • 配置yarn-site.xml
      • 配置mapred-site.xml
      • 配置workers
    • 7.格式化
    • 8.启动集群
      • 启动集群脚本
    • 9.常见错误:
    • 10.写jpsall脚本
    • 11.查看页面
      • ①浏览器中输入:http://hadoop102:9870
      • ①浏览器中输入:http://hadoop103:8088
    • 12.集群测试
  • 集群时间同步
  • XShell连不上Linux
    • 1.先查看Linux是否启动
    • 2.先查看VMWare服务
    • 3.在Linux测试是否可以上网 : ping www.baidu.com
    • 4.重启windows(先关闭Linux再关闭windows)

Linux

在刚安装好的Linux上克隆一个hadoop102

在hadoop102上打快照 ----因为晚上需要恢复快照再做一遍

1.修改ip地址

vi /etc/sysconfig/network-scripts/ifcfg-ens33修改BOOTPROTO=staticONBOOT=yes
添加如下内容IPADDR=192.168.10.102GATEWAY=192.168.10.2DNS1=114.114.114.114DNS2=8.8.8.8

2.重启network服务

	systemctl restart network	
测试ping www.baidu.com(xshell连接Linux)

3.安装插件

yum install -y epel-release net-tools vim
yum install -y  psmisc  nc  rsync  lrzsz  ntp libzstd openssl-static tree iotop git
(可以在安装的过程中,再打开一个窗口继续下面的操作)

4.关闭防火墙

systemctl stop firewalld
systemctl disable firewalld

5.创建用户

#创建用户
useradd lxy
#设置密码123321
passwd lxy 回车再输入密码 123321
#给lxy设置可以使用root权限
visudo
#在root    ALL=(ALL)       ALL下面添加如下内容
lxy ALL=(ALL)       NOPASSWD:ALL

6.创建目录

mkdir /opt/module
mkdir /opt/software

7.修改目录的所属主和所属组为lxy

chown lxy:lxy module software

8.修改主机名:hadoop102 (注意名字后面不要加空格)

vi /etc/hostname

9.修改hosts文件

#修改linux的hosts文件vi /etc/hosts添加如下内容
192.168.10.100 hadoop100
192.168.10.101 hadoop101
192.168.10.102 hadoop102
192.168.10.103 hadoop103
192.168.10.104 hadoop104
192.168.10.105 hadoop105
192.168.10.106 hadoop106
192.168.10.107 hadoop107
192.168.10.108 hadoop108
192.168.10.112 hadoop112
192.168.10.113 hadoop113
192.168.10.114 hadoop114
192.168.10.115 hadoop115
192.168.10.116 hadoop116
192.168.10.117 hadoop117
192.168.10.118 hadoop118
192.168.10.201 hadoop201
192.168.10.202 hadoop202
192.168.10.203 hadoop203
192.168.10.204 hadoop204
192.168.10.205 hadoop205
192.168.10.206 hadoop206
192.168.10.207 hadoop207
192.168.10.208 hadoop208
192.168.10.209 hadoop209
192.168.10.210 hadoop210
192.168.10.211 hadoop211
#修改windows的hosts文件(如果修改保存时显示没有权限。可以将hosts文件复制到桌面修改桌面上的hosts文件再把桌面的hosts文件复制回去即可。查看是否成功)
C:\Windows\System32\drivers\etc

添加如下内容

192.168.10.100 hadoop100
192.168.10.101 hadoop101
192.168.10.102 hadoop102
192.168.10.103 hadoop103
192.168.10.104 hadoop104
192.168.10.105 hadoop105
192.168.10.106 hadoop106
192.168.10.107 hadoop107
192.168.10.108 hadoop108
192.168.10.112 hadoop112
192.168.10.113 hadoop113
192.168.10.114 hadoop114
192.168.10.115 hadoop115
192.168.10.116 hadoop116
192.168.10.117 hadoop117
192.168.10.118 hadoop118
192.168.10.201 hadoop201
192.168.10.202 hadoop202
192.168.10.203 hadoop203
192.168.10.204 hadoop204
192.168.10.205 hadoop205
192.168.10.206 hadoop206
192.168.10.207 hadoop207
192.168.10.208 hadoop208
192.168.10.209 hadoop209
192.168.10.210 hadoop210
192.168.10.211 hadoop211

10.等插件都装完后再重启Linux

11.把xshell的登录用户换成lxy (注意:不要用root切到lxy 而是直接使用lxy登录)

JDK安装(建议和Hadoop一起安装,改的文件都一样,一起改!)

1.将jdk的压缩包上传到linux的/opt/software目录中

2.解压

cd /opt/software
tar -zxvf jdk-8u212-linux-x64.tar.gz -C /opt/module/
tar -zxvf hadoop-3.3.4.tar.gz -C /opt/module/

3.配置环境变量

3.1 在/etc/profile.d中创建xxx.sh(在这我们统一叫 my_env.sh)

cd /etc/profile.d
sudo vim my_env.sh

添加如下内容

#声明JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_212
#声明HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-3.3.4
#将JAVA_HOME添加到path中
export PATH=$PATH:$JAVA_HOME/bin
#将HADOOP_HOME添加到path中
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

3.2 让环境变量生效

第一种方式 :将xshell的窗口断开重新连接 (重新加载环境变量)

第二种方式 :source /etc/profile.d/my_env.sh
注意:source就是执行my_env.sh脚本程序 如果第一次环境变量错误 修改后 再次source
会发现原来错误的环境变量还在。那就重启Linuxsudo reboot

4.测试

java -version
hadoop version

Hadoop安装(上面整过了这块儿不用搞了)

1.将Hadoop的压缩包上传到linux的/opt/software

2.解压压缩包

cd /opt/software
tar -zxvf hadoop-3.3.4.tar.gz -C /opt/module/

3.配置环境变量

cd /etc/profile.d
sudo vim my_env.sh

添加如下内容

#声明HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-3.3.4
#将HADOOP_HOME添加到path中
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

4.让环境变量生效

第一种方式 :将xshell的窗口断开重新连接 (重新加载环境变量)

第二种方式 :source /etc/profile.d/my_env.sh
注意:source就是执行my_env.sh脚本程序 如果第一次环境变量错误 修改后 再次source
会发现原来错误的环境变量还在。那就重启sudo reboot

5.测试

hadoop version

克隆两台

修改两个地方

vi /etc/sysconfig/network-scripts/ifcfg-ens33
vi /etc/hostname

单机模式

一 准备数据

1.创建目录

mkdir /opt/module/hadoop-3.3.4/wcinput

2.创建文件

cd /opt/module/hadoop-3.3.4/wcinput
vim a.txt

3.文件中写点数据

hello hello
longge
canglaoshi
longge

二 运行程序

hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.4.jar wordcount wcinput wcoutput

说明:
hadoop: bin目录中的命令
jar : 参数表示运行一个jar包
share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.4.jar : jar包路径
wordcount :案例名称-不能随便写
wcinput :数据所在的目录
wcoutput :运算的结果输出的目录—该目录必须不存在

三 查看结果

cd wcoutput
cat part-r-00000

分布式集群搭建

1.scp的使用

进行文件或目录的拷贝

scp -r $pdir/$fname $user@$host:$pdir/$fname

2.rsync的使用

rsync -av $pdir/$fname $user@$host:$pdir/$fname

3.ssh配置

生成私钥和公钥

每个节点执行一次

ssh-keygen -t rsa

每个节点的rootlxy各执行一次

### 拷贝公钥
ssh-copy-id hadoop102
ssh-copy-id hadoop103
ssh-copy-id hadoop104

4.xsync脚本的使用

vim /home/lxy/bin/xsync
#!/bin/bash#1. 判断参数个数
if [ $# -lt 1 ]
thenecho Not Enough Arguement!exit;
fi#2. 遍历集群所有机器
for host in hadoop102 hadoop103 hadoop104
doecho ====================  $host  ====================#3. 遍历所有目录,挨个发送for file in $@do#4. 判断文件是否存在if [ -e $file ]then#5. 获取父目录pdir=$(cd -P $(dirname $file); pwd)#6. 获取当前文件的名称fname=$(basename $file)ssh $host "mkdir -p $pdir"rsync -av $pdir/$fname $host:$pdirelseecho $file does not exists!fidone
done
修改脚本 xsync 具有执行权限
chmod +x xsync
测试脚本
xsync /home/lxy/bin

5.集群部署规划

  • NameNode和SecondaryNameNode不要安装在同一台服务器。
  • ResourceManager也很消耗内存,不要和NameNode、SecondaryNameNode配置在同一台机器上。
hadoop102hadoop103hadoop104
HDFSNameNode
DataNode
DataNodeSecondaryNameNode
DataNode
YARNNodeManagerResourceManager
NodeManager
NodeManager

6.修改配置文件

cd /opt/module/hadoop-3.3.4/etc/hadoop

修改了下面的5个配置文件
core-site.xml
hdfs-site.xml
mapred-site.xml
yarn-site.xml
workers

配置core-site.xml

vim core-site.xml
<!-- 指定NameNode的地址 -->
<property><name>fs.defaultFS</name><value>hdfs://hadoop102:8020</value>
</property><!-- 指定hadoop数据的存储目录 -->
<property><name>hadoop.tmp.dir</name><value>/opt/module/hadoop-3.3.4/data</value>
</property><!-- 配置HDFS网页登录使用的静态用户为lxy -->
<property><name>hadoop.http.staticuser.user</name><value>lxy</value>
</property>

配置hdfs-site.xml

vim hdfs-site.xml

<!-- nn web端访问地址-->
<property><name>dfs.namenode.http-address</name><value>hadoop102:9870</value>
</property>
<!-- 2nn web端访问地址-->
<property><name>dfs.namenode.secondary.http-address</name><value>hadoop104:9868</value>
</property>

配置yarn-site.xml

vim yarn-site.xml

<!-- 指定MR走shuffle -->
<property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value>
</property><!-- 指定ResourceManager的地址-->
<property><name>yarn.resourcemanager.hostname</name><value>hadoop103</value>
</property><!-- 环境变量的继承 -->
<property><name>yarn.nodemanager.env-whitelist</name><value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
</property>
<!-- 开启日志聚集功能 -->
<property><name>yarn.log-aggregation-enable</name><value>true</value>
</property><!-- 设置日志聚集服务器地址 -->
<property>  <name>yarn.log.server.url</name>  <value>http://hadoop102:19888/jobhistory/logs</value>
</property><!-- 设置日志保留时间为7天 -->
<property><name>yarn.log-aggregation.retain-seconds</name><value>604800</value>
</property>

配置mapred-site.xml

vim mapred-site.xml

<!-- 指定MapReduce程序运行在Yarn上 -->
<property><name>mapreduce.framework.name</name><value>yarn</value>
</property>
<!-- 历史服务器端地址 -->
<property><name>mapreduce.jobhistory.address</name><value>hadoop102:10020</value>
</property>
<!-- 历史服务器web端地址 -->
<property><name>mapreduce.jobhistory.webapp.address</name><value>hadoop102:19888</value>
</property>

配置workers

vim /opt/module/hadoop-3.3.4/etc/hadoop/workers

在该文件中增加如下内容:

hadoop102
hadoop103
hadoop104

注意:该文件中添加的内容结尾不允许有空格,文件中不允许有空行。
同步所有节点配置文件。

一定要分发

cd /opt/module/hadoop-3.3.4/etc/hadoop
xsync ./
xsync /opt/module/hadoop-3.3.4/etc

7.格式化

在hadoop102(因为namenode在这个节点上-格式化后产生的文件是给namenode使用的)上格式化。
注意:不要重复格式化。如果是格式化失败(格式化的时候有错误)修改错误后重新格式化
命令:hdfs namenode -format

8.启动集群

启动HDFS:start-dfs.sh
关闭HDFS#!#!stop-dfs.sh启动YARN(必须在resourcemanager所在的节点-hadoop103):start-yarn.sh
关闭YARN(必须在resourcemanager所在的节点-hadoop103):stop-yarn.sh

启动集群脚本

vim /home/lxy/bin/myhadoop
#!/bin/bash
#参数的个数校验
if [ $# -ne 1 ];thenecho 参数的个数不对exit
fi#参数的内容校验
case $1 in
"start")#启动HDFSssh hadoop102 $HADOOP_HOME/sbin/start-dfs.sh#启动YARNssh hadoop103 start-yarn.sh;;
"stop")#关闭HDFSssh hadoop102 stop-dfs.sh#关闭YARNssh hadoop103 stop-yarn.sh;;
*)echo 输入的内容不对!!!;;
esac;

9.常见错误:

错误一:配置文件错误
错误二:重复格式化

10.写jpsall脚本

vim /home/lxy/bin/jpsall
#!/bin/bash
for host in hadoop102 hadoop103 hadoop104
doecho =====================$host================ssh $host jps
done

11.查看页面

Web端查看HDFS的NameNode

①浏览器中输入:http://hadoop102:9870

	②查看HDFS上存储的数据信息
Web端查看YARN的ResourceManager

①浏览器中输入:http://hadoop103:8088

	②查看YARN上运行的Job信息如果看不到解决方案:1.查看集群是否正启动(HDFS YARN都要启动)2.将hadoop102的名字替换成IP地址(如果能解决说明windows的hosts的文件有问题)3.查看防火墙是否关闭systemctl status firewalld如果没有关闭 :systemctl stop firewalld  systemctl disable firewalld

12.集群测试

①在HDFS的页面上创建input目录 并在input目录中上传a.txt
②在任意一台节点上执行jobhadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.4.jar wordcount /input /output注意:输入和输出路径是HDFS的路径
③在运行时观察两个页面http://hadoop103:8088 观察Job执行的进度http://hadoop102:9870 观察输出结果

13.历史服务器
作用:查看之前执行过的job信息
配置:vim /opt/module/hadoop-3.3.4/etc/hadoop/mapred-site.xml
添加如下内容

		<!-- 历史服务器端地址 --><property><name>mapreduce.jobhistory.address</name><value>hadoop102:10020</value></property><!-- 历史服务器web端地址 --><property><name>mapreduce.jobhistory.webapp.address</name><value>hadoop102:19888</value></property>
注意:一定要分发   
cd /opt/module/hadoop-3.3.4/etc/hadoop/
xsync mapred-site.xml
启动历史服务器:
mapred --daemon start historyserver
历史服务器地址http://hadoop102:19888

14.日志的聚集
作用:在历史服务器中通过logs就可以查看job的执行的详细信息
配置:vim /opt/module/hadoop-3.3.4/etc/hadoop/yarn-site.xml
添加如下内容

		<!-- 开启日志聚集功能 --><property><name>yarn.log-aggregation-enable</name><value>true</value></property><!-- 设置日志聚集服务器地址 --><property>  <name>yarn.log.server.url</name>  <value>http://hadoop102:19888/jobhistory/logs</value></property><!-- 设置日志保留时间为7天 --><property><name>yarn.log-aggregation.retain-seconds</name><value>604800</value></property>
注意:①一定要分发 cd /opt/module/hadoop-3.3.4/etc/hadoop/xsync yarn-site.xml②重启HDFS YARN 历史服务器③重新执行job④再查看logs

15.集群启动方式
方式一 :整个模块的启或停止
start-dfs.sh stop-dfs.sh
start-yarn.sh stop-yarn.sh
方式二: 单个角色的启动或停止
(1)分别启动/停止HDFS组件
hdfs --daemon start/stop namenode/datanode/secondarynamenode
(2)启动/停止YARN
yarn --daemon start/stop resourcemanager/nodemanager

集群时间同步

将hadoop102配置成时间服务器
1.将ntpd服务关闭
sudo systemctl stop ntpd

2.修改配置文件sudo vim /etc/ntp.confsudo vim /etc/sysconfig/ntpd3.启动ntpd服务sudo systemctl start ntpd=======时间服务器的时间不对===================sudo systemctl stop ntpd
sudo ntpdate 时间服务器地址
sudo systemctl start ntpd

配置hadoop103和hadoop104去hadoop102同步时间
1.启动定时任务的服务
sudo systemctl start crond

2.编辑定时任务sudo crontab -e添加如下内容0 2 * * * sudo ntpdate hadoop102

XShell连不上Linux

1.先查看Linux是否启动

没有启动 那么启动即可

2.先查看VMWare服务

此电脑 -> 右键 -> 管理 -> 服务和应用程序 -> 服务 -> VMWarexxxx 有四个查看否启动
如果没有启动右键启动即可。如果已经启动找到VMWare NAT XXX 服务右键重启
重启后再次重次重新连接Xshell

3.在Linux测试是否可以上网 : ping www.baidu.com

如果不可以上网需要查看配置文件①VMNet8虚拟网卡的配置②VMWare的配置③Linux的配置如果配置都没问题①重启虚拟网卡 :网络 -> 右键 -> 属性 -> 更改适配器设置 -> VMnet8 -> 右键禁用 再 启用②重启Linux服务systemctl restart network如果报错- 方案一是否是配置文件问题    方案二 关闭网络管理服务systemctl stop NetworkManagersystemctl disable NetworkManager再次重启 systemctl restart network

4.重启windows(先关闭Linux再关闭windows)

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.pswp.cn/web/13243.shtml
繁体地址,请注明出处:http://hk.pswp.cn/web/13243.shtml
英文地址,请注明出处:http://en.pswp.cn/web/13243.shtml

如若内容造成侵权/违法违规/事实不符,请联系英文站点网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

5W 3KVAC隔离 宽电压输入 AC/DC 电源模块——TP05AL系列

TP05AL系列产品是一款经济型开板式开关电源&#xff0c;输出功率为5W&#xff0c;具有可靠性高、小体积、性价比高等特点&#xff0c;广泛用于工控和电力仪器、仪表、智能家居等相关行业。

通过 Apple Vision Pro 释放创造力:深入研究空间计算

Apple 最新进军空间计算领域的 Apple Vision Pro,标志着重新定义我们与技术交互方式的重大飞跃。空间计算超越了传统界限,允许用户以无缝集成到物理世界的方式参与 2D 和 3D 内容。 我们可以关注两种类型的体验: 在空间中渲染 2D 内容。这涉及将现有设备窗口投影到空间领域…

通过C++和libcurl下载网易云音乐音频文件的5个简单步骤

概述 在网络编程中&#xff0c;使用C和libcurl库下载文件是一项常见的任务。网易云音乐作为中国领先的在线音乐服务平台之一&#xff0c;以其丰富的音乐资源、优质的音质和智能推荐系统而广受欢迎。由于其平台提供了大量的正版音乐资源&#xff0c;用户在下载音频文件时可能会…

开源发布:JAVA版低代码报文网关-通过简单配置快速对接银行渠道

大家好&#xff0c;我是隐墨星辰&#xff0c;自从《百图解码支付系统设计与实现》专栏中的文章《图解支付报文网关&#xff1a;一种低代码报文网关的设计思路与核心代码实现》发表以来&#xff0c;不少同学留言或私信问我如何实现&#xff0c;说是虽然看懂了思路&#xff0c;但…

pycharm 里面安装 codeium 插件的时候,不能够弹出登录界面

pycharm 里面安装 codeium 插件的时候&#xff0c;不能够弹出登录界面 pycharm 里面安装 codeium 插件的时候&#xff0c;不能够弹出登录界面--解决如下A pycharm 里面安装 codeium 插件的时候&#xff0c;不能够弹出登录界面–解决如下 #踩坑/pycharm/codeium插件无法登录 安…

微信联登报invalid code, rid: 66446806-0826d0b4-3a94ce3a ,错误码:40029解决方法

目录 一、问题描述二、问题原因三、解决方法 一、问题描述 微信登录报错&#xff1a; invalid code, rid: 66446806-0826d0b4-3a94ce3a &#xff0c;错误码&#xff1a;40029二、问题原因 后端设置的 appsecret 和 appid 与前端的 appid 不一致。 三、解决方法 检查是否已…

用Ai编写一个电机驱动程序

问&#xff1a;帮我写一个步进电机的控制程序&#xff0c;要有包括加减速&#xff0c;以及电机步中断处理函数。 答&#xff1a;编写一个步进电机的控制程序涉及到硬件层面的操作&#xff0c;通常需要依赖特定的硬件平台和相应的驱动程序。以下是一个简化的示例&#xff0c;它展…

制氧机负离子的作用与好处深度解析

随着现代生活节奏的加快&#xff0c;空气质量逐渐下降&#xff0c;人们对健康生活的追求也日益增强。在这样的背景下&#xff0c;制氧机负离子功能因其多重健康效益而备受关注。本文将深入探讨制氧机负离子的作用与功效&#xff0c;帮助大家更好地了解并应用这一健康科技。 我们…

单片机烧录程序时“DTR的低电平复位,RTS高电平进入bootloader”有关的串口Modem联络信号

烧录程序时常见DTR和RTS引脚 参考&#xff0c;参考视频 因为常常使用的都是串口下载程序&#xff0c;常用的芯片CH340系列&#xff0c;下图中标红的引脚是MODEM联络信号&#xff0c;其中常见的DTR和RTS就是常见的串口Modem网络输出信号&#xff0c;也就是通过烧录软件控制的接…

VUE v-for中修改data数据

有个需求&#xff0c;要求使用v-for生成序号&#xff0c;但是中间可能会中断&#xff0c;例如&#xff1a; 1 2 3 4 (此行无序号) 5 6 (此行无序号) (此行无序号) (此行无序号) 7 8 ...... 想着这还不简单&#xff0c;只要在data中定义一个变量&#xff0c;然后每次调用时就行…

CMMI3认证如何升级为CMMI5认证

众所周知&#xff0c;CMMI认证体系共分为五个等级&#xff0c;一级最低&#xff0c;五级最高。企业初次申报一般从三级做起&#xff0c;在这个等级水平上&#xff0c;企业在项目研发管理方面已经具备一定的规范程度&#xff0c;对企业的过程改进有着显著成效&#xff0c;在同行…

wps本地js宏基础语句

IF语句 //str.indexOf("")的值为-1时表示不包含 function 是否包含关键字(){var str "陈表达真是个大帅哥";if(str.indexOf("大") ! -1){alert("是的&#xff0c;他是非常大");} }//str.includes("")返回一个布尔值&#x…

深入解析Wireshark1:从捕获到分析,一网打尽数据包之旅

目录 1 认识 Wireshark 1.1 选择网卡界面 1.2 捕获数据包界面 1.3 常用按钮功能介绍 1.4 数据包列表信息 1.5 数据包详细信息 2 数据包案例分析 Frame: 物理层的数据帧概况 Ethernet II: 数据链路层以太网帧头部信息 Internet Protocol Version 4 (IPv4): 互联网层IP…

Git系列:git restore 高效恢复代码的技巧与实践

&#x1f49d;&#x1f49d;&#x1f49d;欢迎莅临我的博客&#xff0c;很高兴能够在这里和您见面&#xff01;希望您在这里可以感受到一份轻松愉快的氛围&#xff0c;不仅可以获得有趣的内容和知识&#xff0c;也可以畅所欲言、分享您的想法和见解。 推荐:「stormsha的主页」…

Java网络编程:介绍Java提供的网络编程接口,如Socket,ServerSocket,URL等,并通过实例说明它们的用法。

一、Java网络编程简介 网络编程的重要性: 网络编程是计算机科学中不可或缺的一部分,它使得两个或两个以上的计算机能够互相通信、协作,达成完成某个任务的目标。网络编程扫描多数我们日常生活中的应用场景,比如聊天软件、网页浏览、电子邮件、社交网络,甚至远程办公等。许多…

AndroidStudio集成高德地图后出现黑屏并报错

报错内容为&#xff1a;No implementation found for void com.autonavi.base.ae.gmap.GLMapEngine.nativeMainThreadTrigger(int, long) (tried Java_com_autonavi_base_ae_gmap_GLMapEngine_nativeMainThreadTrigger and Java_com_autonavi_base_ae_gmap_GLMapEngine_nativeM…

如何判断自己是不是有癔病症?

癔病症分为两种类型&#xff1a; 分离症和转换症&#xff0c;需要分开来描述。 分离症&#xff1a;短时间的意识分离&#xff0c;比如&#xff1a;遗忘&#xff0c;忘记了自己的身份&#xff0c;就像换了个人&#xff08;多重人格的特征&#xff09;&#xff0c;所以人格分裂&…

爱吃香蕉的珂珂

题目链接 爱吃香蕉的珂珂 题目描述 注意点 piles.length < h < 10^9如果某堆香蕉少于k根&#xff0c;将吃掉这堆的所有香蕉&#xff0c;然后这一小时内不会再吃更多的香蕉返回可以在 h 小时内吃掉所有香蕉的最小速度 k&#xff08;k 为整数&#xff09; 解答思路 二…

数据分析实例——搭建电商的指标体系||对应功能开发需要接入的电商API接口说明

前言&#xff1a; 在日常工作中&#xff0c;数据分析中常常涉及搭建指标体系&#xff0c;搭建电商需要接入的电商API接口本文主要以电商为案例&#xff0c;来讲讲如何搭建指标体系。 指标体系的定义&#xff1a; 指标体系是由一系列指标组成的&#xff0c;这些指标是基于不同的…

React 第三十六章 Scheduler 任务调度

Scheduler 用于在 React 应用中进行任务调度。它可以帮助开发人员在处理复杂的任务和操作时更好地管理和优化性能。 关于 Scheduler 在React 如何渲染的可以参考 React 第三十四章 React 渲染流程 下面我们根据流程图先简单的了解 Scheduler 的调度过程 Scheduler 维护两个队…