AI Art, Roar! – Lecture of the Howl, No. 0008
“Reflections on the Current Possibilities of Visual Expression in the Age of Generative AI”
It has been a while since the last “Lecture of the Howl,” but today I would like to resume it.
Until now, I have avoided discussing video‑generation AI for one simple reason:
the pace of progress has been so fast that merely keeping up with it was all I could manage.
As of May 8, 2026, I would like to present the current Hariyashoten Publishing House perspective on video‑generation AI.
First, it is now clear that cinematic expression is no longer limited to studios or large teams.
Individuals can already create a wide range of visual styles.
In the future, I plan to introduce YouTube channels and other resources where anyone can learn generative‑AI film making.
The principles I follow in my video work are the same ones I use when writing science‑fiction or fantasy novels.
When I write, I keep two traditions in mind:
the grand, expansive style of Western literature, and the intimate emotional sensitivity found in Japanese literature.
For my own writing—including this essay—I generally do not use large language models to generate text.
However, I do rely on AI for evaluation.
AI often helps refine my rough drafts, smoothing out harsh or inappropriate expressions and suggesting more measured alternatives.
But let me return to the main topic.
In my approach to visual expression, I aim to balance two ideals:
the literary, art‑film sensibility ,
and the universally enjoyable action .
Now, let me outline the basics of video‑generation AI.
1. Video‑generation AIs are pretrained deep‑learning models.
All video‑generation systems are built on pretrained deep neural networks.
2. These models are accessible through cloud‑based services.
Most video‑generation AIs can be used directly through cloud platforms.
A powerful PC is not required; even smartphones and tablets can access them through a browser.
I personally edit my videos on a desktop PC, but even that machine only has an Intel i3 CPU.
3. There are two main ways to generate video.
3‑1. Text‑to‑Video – generating video purely from text prompts.
3‑2. Image‑to‑Video – generating video using both images and text.
4. With these tools, anyone can begin creating.
You may have already seen many examples on YouTube:
live‑action styles, anime styles, CG styles, clay‑animation styles, and more.
It is easy to imagine these tools being used in schools for creative education.
5. Major video‑generation models today include:
Gen‑4.5, Gen‑4, Seedance 2.0, Google Veo 3, OpenAI Sora 2, Kling, WAN, and the open‑source LTX.
I have used many other AIs as well, but I prioritize those with commercial‑use licenses.
The reason is simple:
This website — Hariyashoten2.com — chaotic as it may be, is ultimately a creative platform operating within a capitalist environment.
To protect the rights of our academic and artistic works,
we must rely on both copyright and Creative Commons licensing.
However, for educational or public‑interest purposes,
I am open to relaxing licensing restrictions.
This essay, for example, is released under Creative Commons Attribution (CC BY).
In the spirit of free software and open‑source philosophy,
you are free to use this text for learning, for AI‑video research, or even for commercial purposes—
as long as proper attribution is given.
May 8, 2026 — Tadamichi Hariya, Assistant Manager, Hariyashoten Publishing House (AI‑assisted translation)
⭐ CC BY 4.0 Legal Notice
This “AI Art, Roar! – Lecture of the Howl” series is released under the Creative Commons Attribution 4.0 International License (CC BY 4.0).
Author: Tadamichi Hariya
AI Usage: Copilot and ChatGPT were used for drafting and editorial assistance.
Source: Original text published on this website.
License: CC BY 4.0
AIアートに吠えろ!「雄たけびの講義0008回「生成AI時代の映像表現の可能性の現時点で所感」
では、雄たけびの講義を久々に開始をします。
今まで、動画生成AIの話を避けてきた理由は、あまりにも動画生成AIの進歩が速すぎて、私が。ついていくだけで限界だった理由が在ります。
ここで、20206年5月8日時点での針屋書店見解として、動画生成AIについて説明を行います。
まず、
映画表現は、既に個人で、様々な表現ができる可能性が見えています。
今後、生成AI学ぶことができる、YouTubeのチャンネルなども紹介していきます。
私が映像作品で心がけている、ポイントは、SFやファンタジーの小説を書く時の要点と一致しています。
私は小説を書くときに、西洋の壮大な文豪の書いた小説の文章と同時に、日本文学の個人的な心の動きを意識しています。私は、自身で作成する文章をでは、この文章も含めて、大規模言語モデルの生成AIを原則的には用いません。
ですが、評価は、生成AIに求めます。
私の粗削りな文章を生成AIが、綺麗に纏め、不適切な表現や、過激な表現の多い、私の原文を、穏便な文章にする、提案を受ける場合が多いです。
では、少し話がずれましたが、戻します。
私が映像表現で心がけている、要点は、文学的な映像表現と、誰でも楽しめるアクションの映像表現の両立です。
では、動画生成AIの説明をします。
1、動画生成AIは、モデルと呼ばれる、深層学習のトレーニング済みモデルである。これは、全ての動画生成AIは基本的には、深層学習のトレーニング済みのモデルであると考えてください。
2、深層学習のトレーニング済みモデルを使って、様々な、動画生成AIのサービスは、インターネットで、クラウドサービスとして、利用できます。パソコンが無いと出来なわけで張りません。一応スマートフォンやタブレットでもブラザー経由でのクラウドサービスとして利用が可能です。パソコンのマシンパワーには左右されませんが、動画の編集は、私は、パソコンで行っています。ですが、ディスクトップパソコンですが、CPUはインテルのi3です。
3、動画生成AIの実際のプロンプトの入力の仕方を説明します。二通り在ります。
3-1、テキストから、動画を作成するTex-to-Videoです。
3-2、画像とテキストの双方から、動画生成するImage-to-Videoです。
4、これで、一応、動画生成AIは使えます。ここから、スタートする事になります。
現在、様々な、動画生成をインターネットの中では、主にYouTubeで見かけると思いますが。実写風や、アニメ風、CG風、クレイアニメーション風などの画像表現を行うことが可能です。学校で動画生清AIを使った授業を行う事も考えられます。
⒌、では、掉尾として、動画生成AIのモデルを列挙していきます。
Gen4.5、Gen4、Seedance2.0、GoogleのVeo3、OpenAIのSora2、アジア系のKling、WAN、オープンソースのLTXなどです。
私自身は、今回列挙した以外のAIを使ったこともありますが。ライセンスが難しい理由から、商用利用が可能なライセンスを優先しています。
なぜ、針屋書店で、商用利用が可能なライセンスを優先するかを説明します。長期的には、現在の針屋書店の混沌とした、ホームページは、資本主義的な商用利用は避けられないと考えられています。コンテンツを作成している関係上。針屋書店の学術と芸術の創作物は、商用利用での著作権と、クリエイティブコモンズライセンスの双方で、私自身の権利を守る必要が在ると考えています。
ですが、教育目的などの公共性の高い、分野では、かなり、ライセンスの緩和も考えています。この文章はクリエイティブコモンズ・ライセンスのCC BYだけです。フリーソフトウェアと、オープンソースの精神に基づいています。自由に、この文章の内容は、動画生成AIの勉強や、商用利用が可能です。ですが、著作者人格権としてのCC BYの名前の表記の義務は存在します。
2026年5月8日 針屋書店 副店長 針屋忠道
この「AIアートに吠えろ!「雄たけびの講義○○○○回」の文章は、Creative Commons Attribution 4.0 International(CC BY 4.0) で公開します。
著作者:針屋忠道
AI利用:Copilot および ChatGPT を草案作成・推敲補助に使用
出典:本ホームページ掲載原文
ライセンス:CC BY 4.0
このライセンスのもとで、著作者表示を行う限り、複製、転載、翻訳、改変、商用利用を含む再利用が可能です。再利用の際は、必要に応じて改変の有無を明記してください。
本ホームページ掲載文のコピー・アンド・ペースト、および生成AIを用いた翻訳・保存も許可します。
