Make-A-Video Mety generuje wideo z tekstu
Meta ogłosiła start Make-A-Video, generatora wideo opartego na sztucznej inteligencji, który może tworzyć nowe treści wideo z monitów tekstowych lub graficznych.
Może też tworzyć odmiany istniejących filmów, ale nie jest jeszcze dostępny do użytku publicznego.
Na stronie z ogłoszeniami Make-A-Video Meta pokazuje przykładowe filmy wygenerowane z tekstu, w tym „młoda para spacerująca w ulewnym deszczu” i „miś malujący portret”. Pokazuje również zdolność Make-A-Video do robienia statycznego obrazu źródłowego i animowania go. Na przykład nieruchome zdjęcie żółw morskie na zdjęciu, po przetworzeniu przez model AI wydaje się pływać.
Kluczowa technologia stojąca za Make-A-Video polega na tym, że opiera się na istniejącej pracy z syntezą tekstu na obraz używaną z generatorami obrazów, takimi jak OpenAI DALL-E. W lipcu Meta ogłosiła własny model AI tekstu na obraz o nazwie Make-A-Scene .
Zamiast trenować model Make-A-Video na oznaczonych danych wideo, Meta wykorzystała dane syntezy obrazów (nieruchome obrazy wytrenowane z napisami) i zastosowała nieoznakowane dane szkoleniowe wideo.
Na razie nie wiadomo w jaki sposób lub kiedy Make-A-Video może stać się publicznie dostępne ani kto będzie miał do niego dostęp. Meta udostępnia formularz rejestracyjny, który można wypełnić, jeśli jest się zainteresowanym wypróbowaniem go w przyszłości.
Meta przyznaje, że możliwość tworzenia fotorealistycznych filmów na żądanie stwarza pewne zagrożenia społeczne. Cała zawartość wideo generowana przez sztuczną inteligencję z Make-A-Video zawiera znak wodny, który informuje widzów, że wideo zostało wygenerowane za pomocą sztucznej inteligencji i nie jest przechwyconym filmem.
Czytaj także: Meta Store zaprasza – otwarte!