«Если рабочий хочет хорошо выполнять свою работу, он должен сначала заточить свои инструменты» — Конфуций, «Аналитики Конфуция. Лу Лингун»
титульная страница > программирование > Как осуществлять потоковую загрузку файлов на AWS S3 с помощью Go?

Как осуществлять потоковую загрузку файлов на AWS S3 с помощью Go?

Опубликовано 10 ноября 2024 г.
Просматривать:674

How to Stream File Uploads to AWS S3 Using Go?

Потоковая загрузка файлов на AWS S3 с помощью Go

Обзор

Загрузка больших файлов непосредственно на AWS S3 с минимальным использованием памяти и дискового пространства является важной задачей в облачных вычислениях. В этом руководстве показано, как добиться этого с помощью AWS SDK для Go.

Решение

Для потоковой загрузки файла непосредственно на S3 вы можете использовать пакет s3manager. Вот пошаговое решение:

  1. Настройте учетные данные и сеанс AWS:

    • Задайте ключ доступа и секрет AWS, или используйте поставщика учетных данных по умолчанию.
    • Инициализируйте сеанс AWS с указанной конфигурацией.
  2. Создайте загрузчик S3:

    • Инициализируйте загрузчик S3 с настройками сеанса и дополнительными настройками конфигурации.
    • Вы можете настроить такие параметры, как размер части, параллелизм и максимальное количество загружаемых частей.
  3. Откройте файл:

    • Откройте файл, который хотите загрузить, с помощью функции os.Open.
  4. Загрузите файл:

    • Используйте метод uploader.Upload с соответствующей информацией о файле (сегмент, ключ и указатель файла).

Пример кода

Следующий пример кода демонстрирует потоковую загрузку больших файлов на AWS S3 с помощью s3manager:

package main

import (
    "fmt"
    "os"

    "github.com/aws/aws-sdk-go/aws/credentials"

    "github.com/aws/aws-sdk-go/aws"
    "github.com/aws/aws-sdk-go/aws/session"
    "github.com/aws/aws-sdk-go/service/s3/s3manager"
)

const (
    filename      = "file_name.zip"
    myBucket      = "myBucket"
    myKey         = "file_name.zip"
    accessKey     = ""
    accessSecret  = ""
)

func main() {
    var awsConfig *aws.Config
    if accessKey == "" || accessSecret == "" {
        //load default credentials
        awsConfig = &aws.Config{
            Region: aws.String("us-west-2"),
        }
    } else {
        awsConfig = &aws.Config{
            Region:      aws.String("us-west-2"),
            Credentials: credentials.NewStaticCredentials(accessKey, accessSecret, ""),
        }
    }

    // The session the S3 Uploader will use
    sess := session.Must(session.NewSession(awsConfig))

    // Create an uploader with the session and default options
    //uploader := s3manager.NewUploader(sess)

    // Create an uploader with the session and custom options
    uploader := s3manager.NewUploader(sess, func(u *s3manager.Uploader) {
        u.PartSize = 5 * 1024 * 1024 // The minimum/default allowed part size is 5MB
        u.Concurrency = 2            // default is 5
    })

    //open the file
    f, err := os.Open(filename)
    if err != nil {
        fmt.Printf("failed to open file %q, %v", filename, err)
        return
    }
    //defer f.Close()

    // Upload the file to S3.
    result, err := uploader.Upload(&s3manager.UploadInput{
        Bucket: aws.String(myBucket),
        Key:    aws.String(myKey),
        Body:   f,
    })

    //in case it fails to upload
    if err != nil {
        fmt.Printf("failed to upload file, %v", err)
        return
    }
    fmt.Printf("file uploaded to, %s\n", result.Location)
}

Следуя этим шагам, вы сможете эффективно загружать большие файлы данных, состоящие из нескольких частей или форм, непосредственно в AWS S3 с минимальным использованием памяти.

Последний учебник Более>

Изучайте китайский

Отказ от ответственности: Все предоставленные ресурсы частично взяты из Интернета. В случае нарушения ваших авторских прав или других прав и интересов, пожалуйста, объясните подробные причины и предоставьте доказательства авторских прав или прав и интересов, а затем отправьте их по электронной почте: [email protected]. Мы сделаем это за вас как можно скорее.

Copyright© 2022 湘ICP备2022001581号-3