(三)k8s实战-资源调度

news/2024/9/8 5:45:35/

一、Label 和 Selector

1、标签(Label)

有两种设置方式:配置文件、kubectl命令

1)配置文件
在各类资源的 metadata.labels 中进行配置

2)kubectl

1)临时创建 label
kubectl label po <资源名称> app=hello	2)修改已经存在的标签
kubectl label po <资源名称> app=hello2 --overwrite3)查看 label
# selector 按照 label 单值查找节点
kubectl get po -A -l app=hello# 查看所有节点的 labels
kubectl get po --show-labels

2、选择器(Selector)

有两种设置方式:配置文件、kubectl命令

1)配置文件
在各对象的配置 spec.selector 或其他可以写 selector 的属性中编写

2)kubectl

# 匹配单个值,查找 app=hello 的 pod
kubectl get po -A -l app=hello# 匹配多个值
kubectl get po -A -l 'k8s-app in (metrics-server, kubernetes-dashboard)'# 查找 version!=1 and app=nginx 的 pod 信息
kubectl get po -l version!=1,app=nginx# 不等值 + 语句
kubectl get po -A -l version!=1,'app in (busybox, nginx)'

二、Deployment

Deployment:用于管理无状态应用

1、配置文件样例

apiVersion: apps/v1 # deployment api 版本
kind: Deployment # 资源类型为 deployment
metadata: # 元信息labels: # 标签app: nginx-deploy # 具体的 key: value 配置形式name: nginx-deploy # deployment 的名字namespace: default # 所在的命名空间
spec:replicas: 1 # 期望副本数revisionHistoryLimit: 10 # 进行滚动更新后,保留的历史版本数selector: # 选择器,用于找到匹配的 RSmatchLabels: # 按照标签匹配app: nginx-deploy # 匹配的标签key/valuestrategy: # 更新策略rollingUpdate: # 滚动更新配置maxSurge: 25% # 进行滚动更新时,更新的个数最多可以超过期望副本数的个数/比例maxUnavailable: 25% # 进行滚动更新时,最大不可用比例更新比例,表示在所有副本数中,最多可以有多少个不更新成功type: RollingUpdate # 更新类型,采用滚动更新template: # pod 模板metadata: # pod 的元信息labels: # pod 的标签app: nginx-deployspec: # pod 期望信息containers: # pod 的容器- image: nginx:1.7.9 # 镜像imagePullPolicy: IfNotPresent # 拉取策略name: nginx # 容器名称restartPolicy: Always # 重启策略terminationGracePeriodSeconds: 30 # 删除操作最多宽限多长时间

2、创建

1.创建一个 deployment
kubectl create deploy nginx-deploy --image=nginx:1.7.9或执行
kubectl create -f xxx.yaml --record
# --record 会在 annotation 中记录当前命令创建或升级了资源,后续可以查看做过哪些变动操作(回滚版本中可以看到变动描述)。2.查看部署信息
kubectl get deployments3.查看 rs
kubectl get rs4.查看 pod 以及展示标签,可以看到是关联的那个 rs
kubectl get pods --show-labels

3、滚动更新

# 修改deploy的yaml配置(修改后就会滚动更新)
kubectl edit deployment/nginx-deploy
# 查看滚动更新的过程
kubectl rollout status deploy <deployment_name>

案例:

#只有修改了 deployment 配置文件中的 template 中的属性后,才会触发更新操作1.修改 nginx 版本号
kubectl set image deployment/nginx-deploy nginx=nginx:1.9.1
或者通过 kubectl edit deployment/nginx-deploy 进行修改2.查看滚动更新的过程
kubectl rollout status deploy <deployment_name>3.查看部署描述,最后展示发生的事件列表也可以看到滚动更新过程
kubectl describe deploy <deployment_name>4.通过 kubectl get deployments 获取部署信息,UP-TO-DATE 表示已经有多少副本达到了配置中要求的数目5.通过 kubectl get rs 可以看到增加了一个新的 rs6.通过 kubectl get pods 可以看到所有 pod 关联的 rs 变成了新的

假设当前有 5 个 nginx:1.7.9 版本,你想将版本更新为 1.9.1,当更新成功第三个以后,你马上又将期望更新的版本改为 1.9.2,那么此时会立马删除之前的三个,并且立马开启更新 1.9.2 的任务

4、回滚

有时候你可能想回退一个Deployment,例如,当Deployment不稳定时,比如一直crash looping。

默认情况下,kubernetes会在系统中保存前两次的Deployment的rollout历史记录,以便你可以随时会退(你可以修改revisionHistoryLimit来更改保存的revision数)。

# 查看 revison 的列表
kubectl rollout history deployment/nginx-deploy
# 查看指定revison的详细信息
kubectl rollout history deployment/nginx-deploy --revision=2
# 回退到上一个版本
kubectl rollout undo deployment/nginx-deploy
# 回退到指定的 revision
kubectl rollout undo deployment/nginx-deploy --to-revision=2

案例:

更新 deployment 时参数不小心写错,如 nginx:1.9.1 写成了 nginx:1.91
kubectl set image deployment/nginx-deploy nginx=nginx:1.91监控滚动升级状态,由于镜像名称错误,下载镜像失败,因此更新过程会卡住
kubectl rollout status deployments nginx-deploy结束监听后,获取 rs 信息,我们可以看到新增的 rs 副本数是 2 个
kubectl get rs通过 kubectl get pods 获取 pods 信息,我们可以看到关联到新的 rs 的 pod,状态处于 ImagePullBackOff 状态为了修复这个问题,我们需要找到需要回退的 revision 进行回退
通过 kubectl rollout history deployment/nginx-deploy 可以获取 revison 的列表通过 kubectl rollout history deployment/nginx-deploy --revision=2 可以查看详细信息确认要回退的版本后,可以通过 kubectl rollout undo deployment/nginx-deploy 可以回退到上一个版本也可以回退到指定的 revision
kubectl rollout undo deployment/nginx-deploy --to-revision=2再次通过 kubectl get deployment 和 kubectl describe deployment 可以看到,我们的版本已经回退到对应的 revison 上了# 可以通过设置 .spec.revisonHistoryLimit 来指定 deployment 保留多少 revison,如果设置为 0,则不允许 deployment 回退了。

5、扩容缩容

# 通过 kube scale 命令可以进行自动扩容/缩容,以及通过 kube edit 编辑 replcas 也可以实现扩容/缩容
kubectl scale --replicas=6 deploy nginx-deploy#扩容与缩容只是直接创建副本数,没有更新 pod template 因此不会创建新的 rs

6、暂停与恢复

由于每次对 pod template 中的信息发生修改后,都会触发更新 deployment 操作,那么此时如果频繁修改信息,就会产生多次更新,而实际上只需要执行最后一次更新即可,当出现此类情况时我们就可以暂停 deployment 的 rollout

# 暂停滚动更新
kubectl rollout pause deployment <name>
# 恢复滚动更新
kubectl rollout resume deploy <name>

案例:

通过 kubectl rollout pause deployment <name> 就可以实现暂停,直到你下次恢复后才会继续进行滚动更新尝试对容器进行修改,然后查看是否发生更新操作了
kubectl set image deploy <name> nginx=nginx:1.17.9
kubectl get po 通过以上操作可以看到实际并没有发生修改,此时我们再次进行修改一些属性,如限制 nginx 容器的最大cpu为 0.2 核,最大内存为 128M,最小内存为 64M,最小 cpu 为 0.1 核
kubectl set resources deploy <deploy_name> -c <container_name> --limits=cpu=200m,memory=128Mi --requests=cpu100m,memory=64Mi通过格式化输出 kubectl get deploy <name> -oyaml,可以看到配置确实发生了修改,再通过 kubectl get po 可以看到 pod 没有被更新那么此时我们再恢复 rollout,通过命令 kubectl rollout resume deploy <name>恢复后,我们再次查看 rs 和 po 信息,我们可以看到就开始进行滚动更新操作了
kubectl get rs
kubectl get po

三、StatefulSet

StatefulSet:用于管理有状态应用

1、配置文件

---
apiVersion: v1
kind: Service
metadata:name: nginxlabels:app: nginx
spec:ports:- port: 80name: webclusterIP: Noneselector:app: nginx
---
apiVersion: apps/v1
kind: StatefulSet # statefuelSet类型的资源
metadata: name: web # StatefulSet的名字
spec:serviceName: "nginx" # 使用哪个service来管理dnsreplicas: 2selector:matchLabels:app: nginx # 配置选择器template:metadata:labels:app: nginxspec:containers:- name: nginximage: arm64v8/nginx:latestports: # 容器内部需要暴露的端口- containerPort: 80 # 暴露的端口name: web # 端口配置的名字
#        volumeMounts: # 加载数据卷
#        - name: www # 指定加载哪个数据卷
#          mountPath: /usr/share/nginx/html # 加载到容器的哪个目录
#  volumeClaimTemplates: # 存储卷模板
#  - metadata: # 存储卷的元数据
#      name: www # 存储卷的名称
#      annotations: # 存储卷的注解
#        volume.alpha.kubernetes.io/storage-class: anything
#    spec: # 存储卷的规约
#      accessModes: [ "ReadWriteOnce" ] # 访问模式
#      resources:
#        requests:
#          storage: 1Gi # 需要1G的存储资源

2、创建

kubectl create -f web.yaml# 查看 service(svc) 和 statefulset(sts)
kubectl get service nginx
kubectl get statefulset web# 查看 PVC 信息
kubectl get pvc# 查看创建的 pod,这些 pod 是有序的
kubectl get pods -l app=nginx# 查看这些 pod 的 dns
# 运行一个 pod,基础镜像为 busybox 工具包,利用里面的 nslookup 可以看到 dns 信息
kubectl run -it --image arm64v8/busybox dns-test --restart=Never --rm /bin/sh
nslookup web-0.nginx

3、扩容缩容

# 方式一:kubectl命令
$ kubectl scale statefulset web --replicas=5# 方式二:打补丁修改yaml
$ kubectl patch statefulset web -p '{"spec":{"replicas":3}}'

4、镜像更新

镜像更新(目前还不支持直接更新 image,需要 patch 来间接实现)

kubectl patch sts web --type='json' -p='[{"op": "replace", "path": "/spec/template/spec/containers/0/image", "value":"arm64v8/nginx:1.9.1"}]'

两种更新策略:
RollingUpdate滚动更新、OnDelete删除更新

1)更新策略:RollingUpdate 滚动更新
StatefulSet 也可以采用滚动更新策略,同样是修改 pod template 属性后会触发更新,但是由于 pod 是有序的,在 StatefulSet 中更新时是基于 pod 的顺序倒序更新的

灰度发布:
利用滚动更新中的 partition 属性,可以实现简易的灰度发布的效果 例如我们有 5 个 pod,如果当前
partition 设置为 3,那么此时滚动更新时,只会更新那些 序号 >= 3 的 pod 利用该机制,我们可以通过控制
partition 的值,来决定只更新其中一部分 pod,确认没有问题后再主键增大更新的 pod 数量,最终实现全部 pod 更新

  updateStrategy:rollingUpdate:partition: 0type: RollingUpdate

2)更新策略:OnDelete 删除更新
只有在 pod 被删除时会进行更新操作

  updateStrategy:type: OnDelete

5、删除

需要删除 StatefulSet 、 Headless Service 和 PVC


# 1)级联删除:删除 statefulset 时会同时删除 pods
kubectl delete statefulset web# 或 非级联删除:删除 statefulset 时不会删除 pods,删除 sts 后,pods 就没人管了,此时再删除 pod 不会重建的
kubectl deelte sts web --cascade=false# 2)删除 service
kubectl delete service nginx# 3)StatefulSet删除后PVC还会保留着,数据不再使用的话也需要删除
kubectl delete pvc www-web-0 www-web-1

四、DaemonSet

1、配置文件

apiVersion: apps/v1
kind: DaemonSet # 创建DaemonSet资源
metadata:name: fluentd # 名字
spec:template:metadata:labels:app: loggingid: fluentdname: fluentd # pod的名字spec:nodeSelector: # 节点选择器type: microservices #匹配的节点labelcontainers:- name: fluentd-esimage: agilestacks/fluentd-elasticsearch:v1.3.0env: # 环境变量配置- name: FLUENTD_ARGS # 环境变量的keyvalue: -qq # 环境变量的valuevolumeMounts: # 加载数据卷,避免数据丢失- name: containers # 数据卷的名字mountPath: /var/lib/docker/containers # 将数据卷挂载到容器内的哪个目录- name: varlog mountPath: /varlogvolumes: # 定义数据卷- hostPath: # 数据卷类型,主机路径的模式,也就是与node共享目录path: /var/lib/docker/containers # node中的共享目录name: containers # 定义的数据卷名称- hostPath:path: /var/logname: varlogupdateStrategy:type: OnDelete # 建议使用OnDelete,删除后更新

2、指定 Node 节点

DaemonSet 会忽略 Node 的 unschedulable 状态,有两种方式来指定 Pod 只运行在指定的 Node 节点上:

  • nodeSelector:只调度到匹配指定 label 的 Node 上
  • nodeAffinity:功能更丰富的 Node 选择器,比如支持集合操作
  • podAffinity:调度到满足条件的 Pod 所在的 Node 上

1)nodeSelector

先为 Node 打上标签

kubectl label nodes k8s-node1 svc_type=microsvc

然后再 daemonset 配置中设置 nodeSelector

spec:template:spec:nodeSelector:svc_type: microsvc

2)nodeAffinity
nodeAffinity 目前支持两种:requiredDuringSchedulingIgnoredDuringExecution 和 preferredDuringSchedulingIgnoredDuringExecution,分别代表必须满足条件和优选条件。

比如下面的例子代表调度到包含标签 wolfcode.cn/framework-name 并且值为 spring 或 springboot 的 Node 上,并且优选还带有标签 another-node-label-key=another-node-label-value 的Node。

apiVersion: v1
kind: Pod
metadata:name: with-node-affinity
spec:affinity:nodeAffinity:requiredDuringSchedulingIgnoredDuringExecution:nodeSelectorTerms:- matchExpressions:- key: wolfcode.cn/framework-nameoperator: Invalues:- spring- springbootpreferredDuringSchedulingIgnoredDuringExecution:- weight: 1preference:matchExpressions:- key: another-node-label-keyoperator: Invalues:- another-node-label-valuecontainers:- name: with-node-affinityimage: pauseyyf/pause

3)podAffinity
podAffinity 基于 Pod 的标签来选择 Node,仅调度到满足条件Pod 所在的 Node 上,支持 podAffinity 和 podAntiAffinity。这个功能比较绕,以下面的例子为例:
如果一个 “Node 所在空间中包含至少一个带有 auth=oauth2 标签且运行中的 Pod”,那么可以调度到该 Node
不调度到 “包含至少一个带有 auth=jwt 标签且运行中 Pod”的 Node 上

apiVersion: v1
kind: Pod
metadata:name: with-pod-affinity
spec:affinity:podAffinity:requiredDuringSchedulingIgnoredDuringExecution:- labelSelector:matchExpressions:- key: authoperator: Invalues:- oauth2topologyKey: failure-domain.beta.kubernetes.io/zonepodAntiAffinity:preferredDuringSchedulingIgnoredDuringExecution:- weight: 100podAffinityTerm:labelSelector:matchExpressions:- key: authoperator: Invalues:- jwttopologyKey: kubernetes.io/hostnamecontainers:- name: with-pod-affinityimage: pauseyyf/pause

3、滚动更新

不建议使用 RollingUpdate,建议使用 OnDelete 模式,这样避免频繁更新 ds

五、HPA 自动扩/缩容

通过监测pod的cpu、内存使用率自定义 metrics 指标进行自动的扩容或缩容 pod 的数量。
可用于Deployment和StatefulSet,通常用于Deployment,不适用于无法扩/缩容的对象,如 DaemonSet
控制管理器每隔30s(可以通过–horizontal-pod-autoscaler-sync-period修改)查询metrics的资源使用情况

1、创建一个 HPA

实现 cpu 或内存的监控,首先有个前提条件是该对象必须配置了 resources.requests.cpu 或 resources.requests.memory 才可以,可以配置当 cpu/memory 达到上述配置的百分比后进行扩容或缩容

# 1)准备一个有做资源限制的 deploymentresources:limits:cpu: 200mmemory: 128Mirequests:cpu: 100mmemory: 128Mi# 2)执行命令  
kubectl autoscale deploy nginx-deploy --cpu-percent=20 --min=2 --max=5# 3)查看HPA信息
kubectl get hpa

2、测试案例

1)找到对应服务的 service,编写循环测试脚本提升内存与 cpu 负载
while true; do wget -q -O- http://ip:port > /dev/null ; done
可以通过多台机器执行上述命令,增加负载

2)当超过负载后可以查看 pods 的扩容情况 kubectl get pods
查看 pods 资源使用情况 kubectl top pods

3)扩容测试完成后,再关闭循环执行的指令,让 cpu 占用率降下来,然后过 5 分钟后查看自动缩容情况

如果无法直接使用kubectl top pods命令,需要安装指标服务组件
开启指标服务:
1)下载 metrics-server 组件配置文件
wget https://github.com/kubernetes-sigs/metrics-server/releases/latest/download/components.yaml -O metrics-server-components.yaml
2)修改镜像地址为国内的地址
sed -i ‘s/k8s.gcr.io/metrics-server/registry.cn-hangzhou.aliyuncs.com/google_containers/g’ metrics-server-components.yaml
3)修改metrics-server-components.yaml的 tls 配置,不验证 tls
在 containers 的 args 参数中增加 --kubelet-insecure-tls 参数
4)安装组件
kubectl apply -f metrics-server-components.yaml
5)查看 pod 状态
kubectl get pods --all-namespaces | grep metrics

3、自定义 metrics

控制管理器开启–horizontal-pod-autoscaler-use-rest-clients
控制管理器的–apiserver指向API Server Aggregator
在API Server Aggregator中注册自定义的metrics API


http://www.ppmy.cn/news/1056082.html

相关文章

软件机器人助力交通运输局数据录入,实现高效管理

随着科技的迅速发展&#xff0c;许多传统的行业正在寻求通过科技创新优化工作流程、提升效率。在这样的大背景下&#xff0c;交通运输部门也开始注重引入科技手段改善工作流程。博为小帮软件机器人正逐步改变着交通运输局的工作方式。 软件机器人&#xff1a;交通管理的利器 博…

如何在Moonriver网络上向社区代表委托投票权利

我们之前介绍了「社区代表」这一概念&#xff0c;想必大家对社区代表在治理中扮演的角色和地位有了一定的了解。 本文将介绍如何将您的投票权利委托给社区代表。请注意&#xff0c;在委托Token给社区代表这一过程中&#xff0c;并非将您的Token转移给任何人&#xff0c;而且此…

【PHP面试题82】system和exec是用来做什么的?有什么区别

文章目录 &#x1f680;一、前言&#xff0c;PHP中system和exec命令的作用&#x1f680;二、system()函数&#x1f680;三、exec()函数&#x1f680;四、区别和应用场景&#x1f50e;4.1 使用system()函数的应用场景&#x1f50e;4.2 使用exec()函数的应用场景&#x1f50e;4.3…

AbstractBeanFactory

这是一个抽象基类&#xff0c;用于实现{link org.springframework.beans.factory.BeanFactory}的全功能&#xff0c;提供了{link org.springframework.beans.factory.config.ConfigurableBeanFactory}的所有能力。这个抽象类的子类需要实现的主要模板方法是{link #getBeanDefin…

Midjourney API 的对接和使用

“ 阅读本文大概需要 4 分钟。 ” 在人工智能绘图领域&#xff0c;想必大家听说过 Midjourney 的大名吧。 Midjourney 以其出色的绘图能力在业界独树一帜。无需过多复杂的操作&#xff0c;只要简单输入绘图指令&#xff0c;这个神奇的工具就能在瞬间为我们呈现出对应的图像。无…

手写链式调用

遇到一个有趣的题目&#xff0c;做个笔记 实现一个arrange函数&#xff0c;可以进行时间和工作调度 //[> …]表示调用函数后的打印内容 //arrange(‘William’).execute(); //> William is notified //arrange(‘William’).do(‘commit’).execute(); //>William …

法线矩阵推导

法线矩阵推导 https://zhuanlan.zhihu.com/p/72734738 https://juejin.cn/post/7113952418613690382 https://blog.csdn.net/wangjianxin97?typeblog 1、为什么需要法线矩阵 vec3 normalEyeSpace modelViewMatrix * normal;如果模型矩阵执行了非等比缩放, 顶点的改变会导致法…

HDLBits-Verilog学习记录 | Verilog Language-Basics(2)

文章目录 9.Declaring wires | wire decl10. 7458 chip 9.Declaring wires | wire decl problem:Implement the following circuit. Create two intermediate wires (named anything you want) to connect the AND and OR gates together. Note that the wire that feeds the …

【C语言进阶(5)】指针笔试题(带图分析)

文章目录 笔试题 1笔试题 2笔试题 3笔试题 4笔试题 5笔试题 6笔试题7笔试题 8 分析下面代码的结果为何是这样 笔试题 1 1. 笔试代码 int main() {int a[5] { 1, 2, 3, 4, 5 };int* ptr (int*)(&a 1);printf("%d,%d\n", *(a 1), *(ptr - 1));return 0; }2.…

火山引擎发布自研视频编解码芯片

2023年8月22日&#xff0c;火山引擎视频云宣布其自研的视频编解码芯片已成功出片。经验证&#xff0c;该芯片的视频压缩效率相比行业主流硬件编码器可提升30%以上&#xff0c;未来将服务于抖音、西瓜视频等视频业务&#xff0c;并将通过火山引擎视频云开放给企业客户。 火山引…

第二章 搜索

本篇博文是笔者归纳汇总的AcWing基础课题集&#xff0c;方便读者后期复盘巩固~ PS&#xff1a;本篇文章只给出完整的算法实现&#xff0c;并没有讲解具体的算法思路。如果想看算法思路&#xff0c;可以阅读笔者往期写过的文章&#xff08;或许会有&#xff09;&#xff0c;也可…

生信豆芽菜-信号转导通路相关评分的计算

网址&#xff1a;http://www.sxdyc.com/gradeSigna 1、数据准备 表达谱数据&#xff0c;行为基因&#xff0c;列为样本 2、提交后&#xff0c;等待运行成功即可下载 当然&#xff0c;如果不清楚数据是什么样的&#xff0c;可以选择下载我们的示例数据&#xff0c;也可以关…

如何实现网页和iframe之间的通讯?

答案: 1. 使用 postMessage 通讯 2. 注意跨域的限制和判断 <!DOCTYPE html> <html lang="en"> <head><meta charset="UTF-8"><meta http-equiv="X-UA-Compatible" content="IE=edge"><meta name…

QT通过ODBC连接GBase 8s数据库(Windows)示例

示例环境&#xff1a; 操作系统&#xff1a;Windows 10 64位数据库及CSDK版本&#xff1a;GBase 8s V8.8_3.0.0_1 64位QT&#xff1a;5.12.0 64位 1&#xff0c;CSDK安装及ODBC配置 1.1&#xff0c;免安装版CSDK 下载免安装版的CSDK驱动&#xff0c;地址&#xff1a;https:…

通用语言模型蒸馏-GLMD

文章目录 GLMD一、PPT内容论文背景P1 BackgroundP2 Approach 相关知识P3 知识蒸馏P4 语言建模词预测逻辑 方法P5 两阶段词汇预测蒸馏P6P7 词汇压缩 实验结果P8 results 二、论文泛读2.1 论文要解决什么问题&#xff1f;2.2 论文采用了什么方法&#xff1f;2.4 论文达到什么效果…

微积分进阶 1.1 函数

一、函数的概念 在观察自然现象或工程实际问题时&#xff0c;我们经常发现有几个变量在变化&#xff0c;这些变量之间并不是彼此孤立的&#xff0c;而是相互制约的&#xff0c;这些变量是怎么变化的呢&#xff1f;它们之间有什么联系呢&#xff1f;存什么规律呢&#xff1f;怎…

git Update failed cannot lock ref

报错详情 解决方案 百度了很多方案&#xff0c;过滤出了有效方案 去该项目下的.git文件里找到报错文件&#xff0c;本例中即为&#xff1a;.git/refs/tags/pre-RELEASE-PRE-20230817-03 删除该文件&#xff0c;重新pull&#xff0c;pull成功问题解决

oops Framwork creator游戏开发框架

环境&#xff1a; Mac oops Framework 该框架是由gdflas编写&#xff0c;基于cocosCreator 3.x 而实现的开源游戏框架。特点&#xff1a; 框架通过插件方式提供&#xff0c;与项目相分离&#xff0c;方便不同版本平滑升级内置模块低耦合&#xff0c; 可根据需要进行删减&…

资金借道股票ETF狂买1200亿

近日A股市场调整&#xff0c;资金借道股票ETF再现“越跌越买&#xff0c;大跌大买&#xff01;” 昨天的股市出现V字反转&#xff0c;资金借道股票ETF同样“抄底”汹涌&#xff0c;单日净买入资金超过50亿元&#xff0c;今年8月份以来已经狂买接近1200亿元。其中&#xff0c;沪…

DataFrame.query()--Pandas

1. 函数功能 Pandas 中的一个函数&#xff0c;用于在 DataFrame 中执行查询操作。这个方法会返回一个新的 DataFrame&#xff0c;其中包含符合查询条件的数据行。请注意&#xff0c;query 方法只能用于筛选行&#xff0c;而不能用于筛选列。 2. 函数语法 DataFrame.query(ex…