Skip to content

Commit 54f5e10

Browse files
committed
继续德语翻译进度 - 完成SDK和HDFS文档
- 完成 developer/sdk/python.md 翻译 (Python SDK完整指南) - 完成 features/hdfs/index.md 翻译 (Hadoop HDFS替代方案) 德语翻译进度: 从16个减少到14个待翻译文件 已完成重要文档: Python SDK、HDFS替代方案等核心功能 翻译质量: 包含完整的代码示例、配置说明、迁移策略和最佳实践
1 parent 7012dfc commit 54f5e10

File tree

5 files changed

+588
-37
lines changed

5 files changed

+588
-37
lines changed

docs/de/developer/mcp.md

Lines changed: 20 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -81,63 +81,76 @@ Fügen Sie den folgenden Eintrag zu Ihrer `claude_desktop_config.json` hinzu:
8181
### Verfügbare Tools
8282

8383
#### 1. `list_buckets`
84+
8485
Listet alle verfügbaren S3-Speicher-Buckets auf.
8586

8687
**Parameter**: Keine
8788

8889
**Beispiel**:
90+
8991
```
9092
Liste alle verfügbaren Speicher-Buckets auf
9193
```
9294

9395
#### 2. `list_objects`
96+
9497
Listet Objekte in einem Speicher-Bucket auf.
9598

9699
**Parameter**:
100+
97101
- `bucket_name` (string): Name des Speicher-Buckets
98102
- `prefix` (string, optional): Präfix zum Filtern von Objekten
99103

100104
**Beispiel**:
105+
101106
```
102107
Liste alle Objekte im Speicher-Bucket "mein-bucket" auf
103108
```
104109

105110
#### 3. `upload_file`
111+
106112
Lädt eine lokale Datei in einen S3-Speicher-Bucket hoch.
107113

108114
**Parameter**:
115+
109116
- `bucket_name` (string): Name des Ziel-Speicher-Buckets
110117
- `object_key` (string): Schlüssel für das Objekt im Speicher-Bucket
111118
- `file_path` (string): Pfad zur lokalen Datei
112119
- `content_type` (string, optional): MIME-Typ der Datei
113120

114121
**Beispiel**:
122+
115123
```
116124
Lade die Datei "/pfad/zur/datei.txt" als "dokumente/datei.txt" in den Speicher-Bucket "mein-bucket" hoch
117125
```
118126

119127
#### 4. `get_object`
128+
120129
Ruft ein Objekt aus S3-Speicher ab.
121130

122131
**Parameter**:
132+
123133
- `bucket_name` (string): Name des Speicher-Buckets
124134
- `object_key` (string): Schlüssel des Objekts
125135
- `mode` (string): "read" für Inhalt anzeigen oder "download" für Datei herunterladen
126136
- `output_path` (string, optional): Pfad für Download-Modus
127137

128138
**Beispiel**:
139+
129140
```
130141
Lade das Objekt "dokumente/datei.txt" aus dem Speicher-Bucket "mein-bucket" herunter
131142
```
132143

133144
## 🔒 Sicherheit
134145

135146
### Authentifizierung
147+
136148
- Unterstützt AWS IAM-Rollen, Umgebungsvariablen und AWS CLI-Konfiguration
137149
- Sichere Übertragung von Anmeldedaten über Umgebungsvariablen
138150
- Keine Speicherung von Anmeldedaten in Konfigurationsdateien
139151

140152
### Berechtigungen
153+
141154
- Minimal erforderliche Berechtigungen für S3-Operationen
142155
- Unterstützt Bucket-spezifische Richtlinien
143156
- Audit-freundliche Operationen
@@ -147,21 +160,27 @@ Lade das Objekt "dokumente/datei.txt" aus dem Speicher-Bucket "mein-bucket" heru
147160
### Häufige Probleme
148161

149162
#### 1. Authentifizierungsfehler
163+
150164
```
151165
Error: AWS credentials not found
152166
```
167+
153168
**Lösung**: Stellen Sie sicher, dass AWS-Anmeldedaten korrekt konfiguriert sind.
154169

155170
#### 2. Endpoint-Fehler
171+
156172
```
157173
Error: Unable to connect to S3 endpoint
158174
```
175+
159176
**Lösung**: Überprüfen Sie die `AWS_ENDPOINT_URL` und Netzwerkkonnektivität.
160177

161178
#### 3. Berechtigungsfehler
179+
162180
```
163181
Error: Access denied
164182
```
183+
165184
**Lösung**: Überprüfen Sie IAM-Berechtigungen für S3-Operationen.
166185

167186
### Debug-Modus
@@ -178,6 +197,7 @@ export RUST_LOG=debug
178197
### S3-Operationen
179198

180199
Alle Operationen verwenden die AWS SDK für Rust und sind vollständig kompatibel mit:
200+
181201
- Amazon S3
182202
- MinIO
183203
- RustFS

docs/de/developer/sdk/java.md

Lines changed: 18 additions & 18 deletions
Original file line numberDiff line numberDiff line change
@@ -62,7 +62,7 @@ public class RustfsS3Example {
6262
private static final String SECRET_KEY = "your-secret-key";
6363
private static final String ENDPOINT = "http://your-rustfs-endpoint:9000";
6464
private static final String REGION = "us-east-1";
65-
65+
6666
public static void main(String[] args) {
6767
// S3-Client konfigurieren
6868
S3Client s3Client = S3Client.builder()
@@ -73,15 +73,15 @@ public class RustfsS3Example {
7373
))
7474
.forcePathStyle(true) // Wichtig für S3-kompatible Dienste
7575
.build();
76-
76+
7777
// Grundlegende Operationen durchführen
7878
listBuckets(s3Client);
7979
createBucket(s3Client);
8080
uploadObject(s3Client);
8181
downloadObject(s3Client);
8282
deleteObject(s3Client);
8383
deleteBucket(s3Client);
84-
84+
8585
s3Client.close();
8686
}
8787
}
@@ -108,12 +108,12 @@ private static void listBuckets(S3Client s3Client) {
108108
```java
109109
private static void createBucket(S3Client s3Client) {
110110
String bucketName = "mein-test-bucket";
111-
111+
112112
try {
113113
CreateBucketRequest request = CreateBucketRequest.builder()
114114
.bucket(bucketName)
115115
.build();
116-
116+
117117
CreateBucketResponse response = s3Client.createBucket(request);
118118
System.out.println("Speicher-Bucket '" + bucketName + "' erfolgreich erstellt.");
119119
} catch (BucketAlreadyExistsException e) {
@@ -131,14 +131,14 @@ private static void uploadObject(S3Client s3Client) {
131131
String bucketName = "mein-test-bucket";
132132
String objectKey = "test-dokument.txt";
133133
String content = "Hallo, RustFS! Dies ist ein Test-Dokument.";
134-
134+
135135
try {
136136
PutObjectRequest request = PutObjectRequest.builder()
137137
.bucket(bucketName)
138138
.key(objectKey)
139139
.contentType("text/plain")
140140
.build();
141-
141+
142142
s3Client.putObject(request, RequestBody.fromString(content));
143143
System.out.println("Objekt '" + objectKey + "' erfolgreich hochgeladen.");
144144
} catch (S3Exception e) {
@@ -153,13 +153,13 @@ private static void uploadObject(S3Client s3Client) {
153153
private static void downloadObject(S3Client s3Client) {
154154
String bucketName = "mein-test-bucket";
155155
String objectKey = "test-dokument.txt";
156-
156+
157157
try {
158158
GetObjectRequest request = GetObjectRequest.builder()
159159
.bucket(bucketName)
160160
.key(objectKey)
161161
.build();
162-
162+
163163
GetObjectResponse response = s3Client.getObject(request);
164164
String content = response.readUtf8String();
165165
System.out.println("Objekt-Inhalt: " + content);
@@ -175,13 +175,13 @@ private static void downloadObject(S3Client s3Client) {
175175
private static void deleteObject(S3Client s3Client) {
176176
String bucketName = "mein-test-bucket";
177177
String objectKey = "test-dokument.txt";
178-
178+
179179
try {
180180
DeleteObjectRequest request = DeleteObjectRequest.builder()
181181
.bucket(bucketName)
182182
.key(objectKey)
183183
.build();
184-
184+
185185
s3Client.deleteObject(request);
186186
System.out.println("Objekt '" + objectKey + "' erfolgreich gelöscht.");
187187
} catch (S3Exception e) {
@@ -195,12 +195,12 @@ private static void deleteObject(S3Client s3Client) {
195195
```java
196196
private static void deleteBucket(S3Client s3Client) {
197197
String bucketName = "mein-test-bucket";
198-
198+
199199
try {
200200
DeleteBucketRequest request = DeleteBucketRequest.builder()
201201
.bucket(bucketName)
202202
.build();
203-
203+
204204
s3Client.deleteBucket(request);
205205
System.out.println("Speicher-Bucket '" + bucketName + "' erfolgreich gelöscht.");
206206
} catch (S3Exception e) {
@@ -220,7 +220,7 @@ private static void getObjectMetadata(S3Client s3Client, String bucketName, Stri
220220
.bucket(bucketName)
221221
.key(objectKey)
222222
.build();
223-
223+
224224
HeadObjectResponse response = s3Client.headObject(request);
225225
System.out.println("Objekt-Metadaten:");
226226
System.out.println("- Größe: " + response.contentLength() + " Bytes");
@@ -242,7 +242,7 @@ private static void listObjects(S3Client s3Client, String bucketName) {
242242
.bucket(bucketName)
243243
.maxKeys(10)
244244
.build();
245-
245+
246246
ListObjectsV2Response response = s3Client.listObjectsV2(request);
247247
System.out.println("Objekte im Speicher-Bucket '" + bucketName + "':");
248248
for (S3Object object : response.contents()) {
@@ -263,14 +263,14 @@ private static void uploadObjectWithMetadata(S3Client s3Client, String bucketNam
263263
metadata.put("author", "RustFS Benutzer");
264264
metadata.put("version", "1.0");
265265
metadata.put("description", "Test-Dokument mit Metadaten");
266-
266+
267267
PutObjectRequest request = PutObjectRequest.builder()
268268
.bucket(bucketName)
269269
.key(objectKey)
270270
.contentType("text/plain")
271271
.metadata(metadata)
272272
.build();
273-
273+
274274
String content = "Dieses Objekt enthält benutzerdefinierte Metadaten.";
275275
s3Client.putObject(request, RequestBody.fromString(content));
276276
System.out.println("Objekt mit Metadaten erfolgreich hochgeladen.");
@@ -316,7 +316,7 @@ try (S3Client s3Client = S3Client.builder()
316316
))
317317
.forcePathStyle(true)
318318
.build()) {
319-
319+
320320
// S3-Operationen durchführen
321321
// ...
322322
} // Client wird automatisch geschlossen

0 commit comments

Comments
 (0)