Amazon Rekognitionを利用した、動画からのラベル抽出をやってみます。
(1) S3に解析用動画を準備する
動画からのラベル抽出をRekognitionをするには、S3に動画を保存する必要があります。短めの動画をS3にアップロードしておきます。前回作ったバケットに「video」というフォルダを作り、その中に動画をアップロードしておきます。動画はmp4かmovのようです。
(2)SagemakerでRekognition Video APIを利用Amazon Rekognitionを利用した、動画からのラベル抽出をやってみます。
(1) S3に解析用動画を準備する
動画からのラベル抽出をRekognitionをするには、S3に動画を保存する必要があります。短めの動画をS3にアップロードしておきます。前回作ったバケットに「video」というフォルダを作り、その中に動画をアップロードしておきます。動画はmp4かmovのようです。
(2)SagemakerでRekognition Video APIを利用前回S3上にアップした画像のラベル抽出ができました(https://smizunolab.blogspot.com/2022/08/aws-rekognition-1.html)。ただ、毎回S3に画像を直接アップロードするのは大変ですので、既に蓄えられている画像をS3にアップロードして、ラベル抽出をしやすくしたいと思います。環境はSagemakerでやりますが、boto3がインストールされていれば、自分の環境でも同様にできます。
(1) Sagemaker上に画像フォルダ「image」を用意します。
このimageの中にラベル抽出したいファイルを入れておきます。(2) S3上に転送されたファイルを格納するフォルダ「image」を用意します。AWSのRekognitionを使って画像からラベル抽出までをやってみます。今回は全てAWSの環境の中で完結するようにやっていきます。利用する環境は以下の通りです。
プログラミング言語:Python3
プログラミング実行環境:AWS Sagemaker
画像認識API : AWS Rekognition
画像保管用ストレージ:AWS S3
※今回は授業での利用を考えて、AWS AcademyのLearnerLabの環境で作っていきます
※ Javaで実施する場合は、https://smizunolab.blogspot.com/2019/11/aws-educate-3-rekognition.html
(1) AWS Sagemakerの立ち上げ
Amazon Sagemakerを開き、ノートブックインスタンスを一つ立ち上げます。名前を入力して、デフォルトのままで起動します。IAMロールで新規作成する必要があれば、新規作成して下さい。
作成をしたら、PendingからStartになるまで待ち、Jupyterを立ち上げてます。
(2) credentialファイルの作成 (~/.aws/credentials)