我创建了一个StatefulSet来运行带有3个副本的NodeJS,并希望将其附加到gce磁盘上,该磁盘可以成为用户上传文件的数据存储。
我的项目命名为:carx;服务器名称:car-server
但是在创建第二个容器时出现错误。
kubectl describe pod car-server-statefulset-1
汽车服务器statefulset.yml
apiVersion: v1
kind: Service
metadata:
name: car-server-service
labels:
app: car-server
spec:
ports:
- port: 8080
name: car-server
clusterIP: None
selector:
app: car-server
---
apiVersion: apps/v1
kind: StatefulSet
metadata:
name: car-server-statefulset
spec:
serviceName: "car-server-service"
replicas: 3
template:
metadata:
labels:
app: car-server
spec:
containers:
- name: car-server
image: myimage:latest
ports:
- containerPort: 8080
name: nodejs-port
volumeMounts:
- name: my-app-data
mountPath: /usr/src/app/mydata
volumes:
- name: my-app-data
persistentVolumeClaim:
claimName: example-local-claim
selector:
matchLabels:
app: car-server
pvc.yml
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
name: example-local-claim
spec:
accessModes:
- ReadWriteMany
resources:
requests:
storage: 5Gi
storageClassName: standard
pv.yml
apiVersion: v1
kind: PersistentVolume
metadata:
name: my-app-data
labels:
app: my-app
spec:
capacity:
storage: 60Gi
storageClassName: standard
accessModes:
- ReadWriteMany
gcePersistentDisk:
pdName: carx-disk
fsType: ext4
最佳答案
Access Mode字段被视为请求,但是不能确定您得到了您所请求的内容。在您的情况下,GCEPersistentDisk仅支持ReadWriteOnce
或ReadOnlyMany
。
现在,您的PV已安装为ReadWriteOnce
,但只能同时安装在一个节点上。因此,其他副本将无法装入该卷。
使用StatefulSet时,通常每个副本使用其自己的卷,为此,请使用volumeClaimTemplate:
list 的StatefulSet
部分。
例:
volumeClaimTemplates:
- metadata:
name: example-claim
spec:
accessModes: [ "ReadWriteOnce" ]
storageClassName: "standard"
resources:
requests:
storage: 5Gi
如果您只能使用一个卷,则可以考虑仅使用一个副本来运行StatefulSet
,例如replicas: 1
。如果要进行磁盘复制,则可以将StorageClass用于也复制到另一个AZ的区域磁盘。请参阅Regional Persistent Disk,但是它仍然具有相同的访问模式。