世界のAIニュースピックアップ(2023年4月版)
Twitterで取り上げられているのポストをもとに、弊社に関係する映像制作や動画制作、ブランディングやデザイン、代表が個人的に気になる情報をまとめています。
目次
- Runway 、iPhoneアプリ「Gen-1」を配信開始
- マイクロソフトデザイナーが利用可能に
- スタンフォードがシミュレーションタウンAI研究を公開
- Adobeがビデオ編集に「Firefly」を追加
- ChatGPTがNBAの新CMに起用される
- メタ「DINOv2」をリリース
- TikTokの新しいAIアバター
- スタンフォード大学の学生がかかりつけ医「HealthGPT」を作成
- Stability がオープンソースの言語モデル「StableLM」を発売
- NVIDIAのテキストtoビデオ技術を発表
- Synthesis AIが、テキストプロンプトからリアルな3Dデジタルヒューマンを作成する新しい方法を発表
- ハギング・フェイス、ChatGPTの代替サービスを開始
Runway 、iPhoneアプリ「Gen-1」を配信開始
2月にジェネレーティブAIのスタートアップ「Runway」が、既存の動画に加工を施し新たな動画を生成できるAI「Gen-1」を発表し、それがiPhoneアプリとして利用可能に
https://tabi-labo.com/305906/wt-gen-1-runway
https://apps.apple.com/app/apple-store/id1665024375
すでにGen-2もリリースされてこんな作品たちが生まれています
マイクロソフトデザイナーが利用可能に
AIがデザインしてくれる「Microsoft Designer」、待機リストへの登録なしで利用可能に
https://forest.watch.impress.co.jp/docs/news/1497363.html
https://designer.microsoft.com/
スタンフォードがシミュレーションタウンAI研究を公開
Adobeがビデオ編集に「Firefly」を追加
「Adobe Firefly」は、テキストや画像を入力すると、自動的にオリジナルの画像やテキストエフェクトを生成します。Adobe Creative Cloudの一部として提供される予定です。
https://blog.adobe.com/jp/publish/2023/04/18/cc-video-reimagining-video-audio-adobe-firefly
ChatGPTがNBAの新CMに起用される
メタ「DINOv2」をリリース
Metaが映像処理モデル「DINOv2」を発表、将来はAIにより没入型VR環境が作れる可能性があります。
https://gigazine.net/news/20230418-meta-ai-dino-v2/
TikTokの新しいAIアバター
TikTokがAIによるアバター生成機能をテスト中であることが報じられた。ユーザーは、3~10枚の写真を送信することで、5つの異なるスタイルのアバターを生成することができる。ただし、この機能はまだ一部の地域でしか利用できず、一般提供される時期や技術的な詳細については不明
https://japan.cnet.com/article/35203208/
https://news.yahoo.co.jp/articles/17edb79d47406d84766710a53e0cd320b25c16ad
スタンフォード大学の学生がかかりつけ医「HealthGPT」を作成
HealthGPTは、自然言語でApple Healthアプリに保存された健康データとやりとりできる実験的なiOSアプリです。OpenAIの大規模言語モデルを利用して開発されました
https://gadgetsandwearables.com/2023/04/20/healthgpt/
Stability がオープンソースの言語モデル「StableLM」を発売
StableLMは、The Pileという大規模なデータセットに基づいて訓練された言語モデルです。現在はアルファ版で、30億と70億パラメータの2種類が用意されていますが、今後は150億から650億パラメータのモデルも用意される予定です。StableLMは、自然言語処理や会話型AIなどのさまざまなタスクに応用できるとしています。
ChatGPT対抗のオープンソース言語モデル「StableLM」。日本語版も?
https://pc.watch.impress.co.jp/docs/news/1494957.html
NVIDIAのテキストtoビデオ技術を発表
NVIDIAのテキストtoビデオ技術は、VideoLDMというAIモデルを使って、テキストの説明に基づいて高解像度の動画を生成する技術です。コーネル大学の研究者と共同で開発されたこのモデルは、最大2048×1280ピクセルの解像度で、24フレームの頻度で、最大4.7秒の長さの動画を生成できます。この技術は、教育やエンターテイメントなどの分野で応用できる可能性がありますが、倫理的な問題もあります。
Synthesis AIが、テキストプロンプトからリアルな3Dデジタルヒューマンを作成する新しい方法を発表
Synthesis AIは、テキストから3Dデジタルヒューマンを作成する技術を開発した企業です。テキストプロンプトを入力すると、その内容に合った人物の顔や髪型、服装などを自動的に生成します。