カテゴリー: AIアートに吠えろ!

  • AIアートに吠えろ!「雄たけびの講義0008回「生成AI時代の映像表現の可能性の現時点で所感」

    AI Art, Roar! – Lecture of the Howl, No. 0008
    “Reflections on the Current Possibilities of Visual Expression in the Age of Generative AI”

    It has been a while since the last “Lecture of the Howl,” but today I would like to resume it.
    Until now, I have avoided discussing video‑generation AI for one simple reason:
    the pace of progress has been so fast that merely keeping up with it was all I could manage.

    As of May 8, 2026, I would like to present the current Hariyashoten Publishing House perspective on video‑generation AI.

    First, it is now clear that cinematic expression is no longer limited to studios or large teams.
    Individuals can already create a wide range of visual styles.
    In the future, I plan to introduce YouTube channels and other resources where anyone can learn generative‑AI film making.

    The principles I follow in my video work are the same ones I use when writing science‑fiction or fantasy novels.
    When I write, I keep two traditions in mind:
    the grand, expansive style of Western literature, and the intimate emotional sensitivity found in Japanese literature.
    For my own writing—including this essay—I generally do not use large language models to generate text.
    However, I do rely on AI for evaluation.
    AI often helps refine my rough drafts, smoothing out harsh or inappropriate expressions and suggesting more measured alternatives.

    But let me return to the main topic.

    In my approach to visual expression, I aim to balance two ideals:
    the literary, art‑film sensibility ,
    and the universally enjoyable action .

    Now, let me outline the basics of video‑generation AI.


    1. Video‑generation AIs are pretrained deep‑learning models.

    All video‑generation systems are built on pretrained deep neural networks.

    2. These models are accessible through cloud‑based services.

    Most video‑generation AIs can be used directly through cloud platforms.
    A powerful PC is not required; even smartphones and tablets can access them through a browser.
    I personally edit my videos on a desktop PC, but even that machine only has an Intel i3 CPU.

    3. There are two main ways to generate video.

    3‑1. Text‑to‑Video – generating video purely from text prompts.
    3‑2. Image‑to‑Video – generating video using both images and text.

    4. With these tools, anyone can begin creating.

    You may have already seen many examples on YouTube:
    live‑action styles, anime styles, CG styles, clay‑animation styles, and more.
    It is easy to imagine these tools being used in schools for creative education.

    5. Major video‑generation models today include:

    Gen‑4.5, Gen‑4, Seedance 2.0, Google Veo 3, OpenAI Sora 2, Kling, WAN, and the open‑source LTX.

    I have used many other AIs as well, but I prioritize those with commercial‑use licenses.
    The reason is simple:
    This website — Hariyashoten2.com — chaotic as it may be, is ultimately a creative platform operating within a capitalist environment.
    To protect the rights of our academic and artistic works,
    we must rely on both copyright and Creative Commons licensing.

    However, for educational or public‑interest purposes,
    I am open to relaxing licensing restrictions.
    This essay, for example, is released under Creative Commons Attribution (CC BY).
    In the spirit of free software and open‑source philosophy,
    you are free to use this text for learning, for AI‑video research, or even for commercial purposes—
    as long as proper attribution is given.

    May 8, 2026 — Tadamichi Hariya, Assistant Manager, Hariyashoten Publishing House (AI‑assisted translation)


    CC BY 4.0 Legal Notice

    This “AI Art, Roar! – Lecture of the Howl” series is released under the Creative Commons Attribution 4.0 International License (CC BY 4.0).
    Author: Tadamichi Hariya
    AI Usage: Copilot and ChatGPT were used for drafting and editorial assistance.
    Source: Original text published on this website.
    License: CC BY 4.0

    AIアートに吠えろ!「雄たけびの講義0008回「生成AI時代の映像表現の可能性の現時点で所感」

    では、雄たけびの講義を久々に開始をします。

    今まで、動画生成AIの話を避けてきた理由は、あまりにも動画生成AIの進歩が速すぎて、私が。ついていくだけで限界だった理由が在ります。

    ここで、20206年5月8日時点での針屋書店見解として、動画生成AIについて説明を行います。

    まず、

    映画表現は、既に個人で、様々な表現ができる可能性が見えています。

    今後、生成AI学ぶことができる、YouTubeのチャンネルなども紹介していきます。

    私が映像作品で心がけている、ポイントは、SFやファンタジーの小説を書く時の要点と一致しています。

    私は小説を書くときに、西洋の壮大な文豪の書いた小説の文章と同時に、日本文学の個人的な心の動きを意識しています。私は、自身で作成する文章をでは、この文章も含めて、大規模言語モデルの生成AIを原則的には用いません。

    ですが、評価は、生成AIに求めます。

    私の粗削りな文章を生成AIが、綺麗に纏め、不適切な表現や、過激な表現の多い、私の原文を、穏便な文章にする、提案を受ける場合が多いです。

    では、少し話がずれましたが、戻します。

    私が映像表現で心がけている、要点は、文学的な映像表現と、誰でも楽しめるアクションの映像表現の両立です。

    では、動画生成AIの説明をします。

    1、動画生成AIは、モデルと呼ばれる、深層学習のトレーニング済みモデルである。これは、全ての動画生成AIは基本的には、深層学習のトレーニング済みのモデルであると考えてください。

    2、深層学習のトレーニング済みモデルを使って、様々な、動画生成AIのサービスは、インターネットで、クラウドサービスとして、利用できます。パソコンが無いと出来なわけで張りません。一応スマートフォンやタブレットでもブラザー経由でのクラウドサービスとして利用が可能です。パソコンのマシンパワーには左右されませんが、動画の編集は、私は、パソコンで行っています。ですが、ディスクトップパソコンですが、CPUはインテルのi3です。

    3、動画生成AIの実際のプロンプトの入力の仕方を説明します。二通り在ります。

     3-1、テキストから、動画を作成するTex-to-Videoです。

     3-2、画像とテキストの双方から、動画生成するImage-to-Videoです。

    4、これで、一応、動画生成AIは使えます。ここから、スタートする事になります。

    現在、様々な、動画生成をインターネットの中では、主にYouTubeで見かけると思いますが。実写風や、アニメ風、CG風、クレイアニメーション風などの画像表現を行うことが可能です。学校で動画生清AIを使った授業を行う事も考えられます。

    ⒌、では、掉尾として、動画生成AIのモデルを列挙していきます。

    Gen4.5、Gen4、Seedance2.0、GoogleのVeo3、OpenAIのSora2、アジア系のKling、WAN、オープンソースのLTXなどです。

    私自身は、今回列挙した以外のAIを使ったこともありますが。ライセンスが難しい理由から、商用利用が可能なライセンスを優先しています。

    なぜ、針屋書店で、商用利用が可能なライセンスを優先するかを説明します。長期的には、現在の針屋書店の混沌とした、ホームページは、資本主義的な商用利用は避けられないと考えられています。コンテンツを作成している関係上。針屋書店の学術と芸術の創作物は、商用利用での著作権と、クリエイティブコモンズライセンスの双方で、私自身の権利を守る必要が在ると考えています。

    ですが、教育目的などの公共性の高い、分野では、かなり、ライセンスの緩和も考えています。この文章はクリエイティブコモンズ・ライセンスのCC BYだけです。フリーソフトウェアと、オープンソースの精神に基づいています。自由に、この文章の内容は、動画生成AIの勉強や、商用利用が可能です。ですが、著作者人格権としてのCC BYの名前の表記の義務は存在します。

    2026年5月8日 針屋書店 副店長 針屋忠道

    この「AIアートに吠えろ!「雄たけびの講義○○○○回」の文章は、Creative Commons Attribution 4.0 International(CC BY 4.0) で公開します。
    著作者:針屋忠道
    AI利用:Copilot および ChatGPT を草案作成・推敲補助に使用
    出典:本ホームページ掲載原文
    ライセンス:CC BY 4.0

    このライセンスのもとで、著作者表示を行う限り、複製、転載、翻訳、改変、商用利用を含む再利用が可能です。再利用の際は、必要に応じて改変の有無を明記してください。
    本ホームページ掲載文のコピー・アンド・ペースト、および生成AIを用いた翻訳・保存も許可します。

  • AIアートに吠えろ!0007回

    AIアートに吠えろ!「雄たけびの講義0007回「生成AI時代の3DCGモデリングの短時間化」」

    現在、従来人間が行ってきた、3DCGのポリゴンモデルの作成が、AIを使うことで、画像から自動化できる時代に入ってきています。

     インターネットでは、YouTubeの広告などで、生成AIのモデリングをクラウド型で行うサービスの3DCGのポリゴンモデルを作成するサービスが在ります。

     このAIを用いた画像から3DCGを作成する技術は、今後、3DCGを創作物に組み込む場合に必須の技術になると考えられます。

     この場合。将来の3DCGのモデリングは。

      1、手作業で従来のように3DCGのポリゴンモデルを作成する。

     2、画像から、AIを使った3DCG用のポリゴンモデルを作成する。この場合、画像からテクスチャーも作成可能なサービスも存在する。

     3、画像から、AIを使った3DCG用のポリゴンモデルを作成して、修正を人間の手作業で行う。テクスチャーに変更が必要な場合は、人間の手作業で行うか。この場合、AIがテクスチャーも複数の提案の形で作成する事が将来的には考えられる。

     ここからが本題です。

     生成AIが3DCGで作成した、ポリゴンモデルは、複数の使い方が考えられます。

     この場合。

     1、3DCGを用いた、映画に使える。もしくは、3DCGを部分的に使う映画に使える。

     2、3DCGを用いる、様々なゲームに使える。

     3、生成AIで、画像を作成する際に、3DCGでポリゴンモデルをレンダリングした画像を、動画生成AIを用いたコンテンツ制作に利用できる。

     です。

     現在、生成AIの発展は凄まじい勢いで続いています。 

     現在の、生成AIを動かすデータセンターの電力の多さは、コンピュータの最初期のENIACが真空管で大量の電力を必要とした事と同じですが。将来的には、省電力化が光子技術などや光ファイバー、量子コンピューティングなどの次世代の技術を用いて進むと考えられるため、私は楽観視しています。

     自身のイメージする、画像を作成する手順を、今回の画像からAIで3DCGのポリゴンモデルを作成する技術を使ったケースとして順を追って説明していきます。

     1、自分の作りたい画像が在る。

     2、要素となる、3DCGで作りたいキャラクターや、静物などを画像生成AIで作成する。

     3、画像生成AIで作成した画像ファイルから、キャラクターや静物などのポリゴンモデルを作成する。

     4、作成したキャラクターや静物などのポリゴンモデルを3DCGを作成するオープンソースのBlenderや、デファクトスタンダードのMAYAなどを使い、ポーズや構図などを指定する。

     5、ポーズや構図をなどを指定した3DCGモデルをレンダリングする。そして画像を作成する。

     6、作成した、画像を画像生成AIに読み込む。

     7、画像生成AIで、ポリゴンモデルと他の画像を組み合わせる、複数の画像を加工して、「1、」の自分の作りたい1枚の画像を作成する。

     8、動画生成AIで、動画を生成する。

     です。

     この手順は、今後、3DCGのポリゴンモデルを使って、画像生成AIの微調整を行いたい場合に、選択肢の一つして有効だと考えられます。

     現在は、生成AIを用いた、アート作品であるコンテンツ作成の黎明期だと考えられます。

     多くのクリエーターや、クリエーターを目指す人達の手助けを、生成を用いた、コンテンツ作成のワークフローとしての今回の手順は、参考になると考えられます。

     些か、堅苦しいですが。 

     生成AIを用いて、コンテンツ生成の時間を短縮する事が可能になると考えられます。

     従来はポリゴンモデルの作成には時間が費やされますが。

     ポリゴンモデルの作成を専門とする3Dデザイナーは、時間の短縮が望めます。

     現在、画像生成AIと動画生成AIの技術の進歩に、世界の人たちが驚いていますが。

     人間の価値がなくなるわけでありません。

     人間の俳優の演技も、将来的には、動画生成AIに取り込むことは可能であると考えられます。

     例えば、顔とモーションは、人間の俳優で、SF的な服やファンタジー的な衣装などは、生成AIで作成して動画として動かす事も可能であると考えられます。

     では、皆さん新しい時代を生成AIと共に歩きましょう。

    この「AIアートに吠えろ!雄たけびの講義「○○○〇回」」の文章は全て、クリエイティブ・コモンズ・ライセンスのCC BY です。「CC BYの条件:原著作者の表示(BY)を条件に、作品の利用、改変、商用利用が許可」。原著者:針屋忠道、Copilot,ChatGPT。CC BYから、ホームページからコピー・アンド・ペーストを行って生成AIを用いての翻訳および保存は自由に許可されます。CC BYから、ホームページからコピー・アンド・ペーストを行って生成AIを用いての翻訳および保存は自由に許可されます。

  • AIアートに吠えろ0005回

    AIアートに吠えろ!「雄たけびの講義0005回。AI時代のイラストレーターやアニメなどの日本のコンテンツと著作権の提起」

    まず、針屋書店のホームページの画像生成AIと動画生成AIを使ったコンテンツを見てください。

    日本のアニメや、イラストではなく、実写に近い、写実主義的なコンテンツで占められています。

    この理由は、私は、著作権法の単位を持っているので、昨年の2024年から本格的に画像生成AIの使用を開始しましたが。画像生成AIの使用の際に、インターネットで公開するAIを使った画像や動画は、実写型にする事を決めていました。

    私も、ローカル環境で画像生成AIで、イラスト風の画像を作成する実験は行いました。

    完成度が高くて驚いていました。

    私が、画像生成AIと、動画生成AIを使う理由は、自分でAIを使わずに(正確にはChatGPTが登場する以前のAIが使えない時代に)書いていた、自身のファンタジー小説や、SF小説に出来るだけリアルな挿絵を付けたかったことが大きいです。

    現在、日本のコンテンツを作る、企業や個人のアーティストなどが、生成AI時代で困る理由は、イミテーションとしての二次創作物の上限を明確に越えいてる、コンテンツを生成AIが簡単に短い時間で作り出すからだと考えられます。

    私は、画像生成AIの勉強をしていく中で、LoRAで、特定のイラストや、アニメーションの画風などを模倣できること昨年の段階で学んでいます。

    私は、自身の小説の挿絵を作ることが目的のため、アニメーションやイラストレーターの画風やキャラクターの模倣を行うLoRAは使用したことは在りません。

    キャラクターの固定で、LoRAを自身が生成AIで作成した画像から作る実験は行いましたが。時代の進歩の方が速く、LoRAを使わなくても、キャラクターの同一性が得られる状態が現在です。

    この理由から、現在、私はLoRAの勉強は停止しています。

    私のキャラクターは、大部分は、B5のノートに、ボールペンと色鉛筆で書いていたイラストから、生成AIのプロンプトを作っています。

    昔は、イラストを書いていましたが。今は、生成AIを使って、画像を描いてもらっています。

    ですが、イラストを一枚完成させる時間は非常に長いです。そして満足が出来ない場合も多いです。

    この試行錯誤などの労力がイラストレーターやアニメーションでは、多くを占めていると考えられます。ですが、イラストやアニメーションでも表現の際に、先行する作品の影響を受ける場合が在ります。

    この場合、どこまでの範囲を著作権に含めるのか、この議論の開始が必要だと考えられます。

    生成AIでイラストやアニメーションの画風を使ったコンテンツの作成の際に、著作権料を支払うなどの法整備が考えられます。

    この法整備は必ずしも日本国内に限定されず、世界的に国際法としての制定を目指すムーブメントも考えられます。

    現在、日本の声優の権利保護は、提起の形で行われています。ですが、アニメーションとイラストレーターの権利保護の課題が在ります。

    私が、針屋書店の動画で、日本人の声を使えない理由は、悪役の声を日本人で演じる場合のリスクの観点から、避けています。

    生成AI時代の著作者人格権も含めた。法整備の議論が必要だと考えられます。

    今回の第0005回の講義を終えます。

    この「AIアートに吠えろ!雄たけびの講義○○○〇回」の文章は全て、クリエイティブ・コモンズ・ライセンスのCC BY です。「CC BYの条件:原著作者の表示(BY)を条件に、作品の利用、改変、商用利用が許可」。原著者:針屋忠道、Copilot,ChatGPT。CC BYから、ホームページからコピー・アンド・ペーストを行って生成AIを用いての翻訳および保存は自由に許可されます。CC BYから、ホームページからコピー・アンド・ペーストを行って生成AIを用いての翻訳および保存は自由に許可されます。

  • AIアートに吠えろ!004

    「AIアートに吠えろ!雄叫びの講義004画像生成AI時代の3Dモデリングの必要性としての画像生成AIとオープンソースの高機能3DソフトウェアBlenderの協同作業」

    まず、3DCGを行っている人たちや、3DCGを職業としようとしている人たちは、現在、動画生成AIにビビりまくっていると思います。今回は、3Dモデリングの将来性と、変化を論じていきます。

     私も、当初は、動画生成AIが、良くわからなかったことも在りましたが。

     YouTubeの動画で、3Dモデリングで作ったポリゴンの街の風景から、画像生成AIを用いて、綺麗な風景画や、海底の神秘的な水没都市を同じポリゴンモデルから画像生成AIで行う実験を見ました。

     この動画の中では、ポリゴンモデルを綺麗な風景画のように作成する手順を「AIによるレンダリング」と呼んでいました。

     少し、3Dソフトウェアでポリゴンモデルの勉強したり、ゲームなどで3Dゲームなどの仕組みに詳しい知識を持っている場合、レンダリングは、何であるか判ると思います。

     結論を先に書けば、3Dモデリングの専門家の仕事は無くならないと考えられます。

     少し前に、YouTubeの動画では、画像生成AIが作り出した、キャラクターをポリゴンモデルにする、技術が紹介されていました。

     この技術は、3Dモデリングの専門家には、ポリゴンモデルの作成の時間を減少させる効果が在ります。

     創造的な芸術の仕事に生産性という、言葉を持ち込むことは、生臭い話ですが、将来的には、3Dモデルの作成の時間が大幅に短くできると考えられます。

     A、生成AIによるレンダリング←ポリゴンモデルの微調整やデザインの変更⇔画像からポリゴンモデルを作成する。

     B、生成AIによるレンダリング←画像からポリゴンモデルを作成する。

     C、生成AIによるレンダリング←過去に作成したり現在作成したポリゴンモデルの微調整やデザインの変更。

     他にも新しい技術は出てくると思います。

     現在進んでいる、生成AIを用いた3DCGのモデリングの技術は、このような状況だと考えられます。

     この場合、3DCGのモデリング作業の専門家は、従来よりも多くの3Dモデリングが可能になります。

     では、少し、現実的な、職業の問題を論点としましょう。

     動画生成AIの発達で、映画俳優の仕事が無くなるのか。と考えた場合。

     全然、そんなことは在りません。

     現在でも、3DのCGを実写の映画では使って、映画俳優も、人間です。

     従来の技術で、合成の技術を使えば、簡単に、コンピュータ上で3DCGと人間が一緒に共演するシーンの合成が可能です。

     そして、画像生成AIでも、全ての人間を、生成AIが作成する画像の中に写真から取り込むことも可能です。正確には画像ファイルの人間の画像からですが。

     このような、現実世界で生きている、もしくは生きていた、人間の写真を取り込んだ画像ファイルを、生成AIを用いて動画として動かす。このような流れは、今後一般的になると考えられます。

     新しい芸術表現です。

     最初期の映画の始祖であるリュミエール兄弟たちの逸話が思い出されるように、現代の世界では、世界の多くの人達が、画像生成AIや動画生成AIを用いた、芸術的な表現で取り組んでいます。

     映画俳優の役割は無くなりませんが。

     低予算でも、現在の大作と呼ばれる映画の水準が再現できる時代へ向かうと考えられます。

     このような、現実の人間を、3Dのポリゴンモデルとして、Blenderなどの3DCGの制作ソフトに取り込んで、現実では不可能な、アクションシーンや、ファンタジーのシーン、SFのシーンを作成することが今後、考えられます。

     このような取り組みは、既に、YouTubeでは、世界的に始まっている事が発信されています。

     従来型の、3DのCGでは、人的な労働力と、クリエーターの能力に大きく左右される面が強いと考えられます。

     ですが、生成AIを使うことで、今までは不可能だった3DCGの動画を作成することができると考えられます。

     世界の多くの人達の、想像力に翼を与える、時代が始まっています。 

     世界各国の生成AIの技術者の方々や、創作活動のフロントランナーの方々の恩恵を受けている私、山田夢幻は、頭を下げる状態です。

     謝辞と共に、では、今回の第004回の講義を終えます。

     

  • AIアートに吠えろ!003

    「AIアートに吠えろ!雄叫びの講義003音楽生成AI、SUNOでの、昨年の2024年からの楽曲作成の実験の報告」

    では、最初にSUNOのリンクを貼っておきます。「https://suno.com/」をクリックするとSUNOのホームページへハイパーリンクで移動します。URLと呼ばれるホームページのアドレスですから、ブラウザーに入力しても辿り着けます。

     昨年、針屋書店のSF小説「電脳世紀東京ネイショニストワルツ」の販促の動画を作成していました。音楽が、どうしても必要で、YouTubeで生成AI関連の動画を追っていると、SUNOという音楽生成AIが優れているという情報を得て、試してみました。

     期待以上の音楽で驚きました。

     生成AIのCopilotが作成した歌詞を使い。SUNOで最初の「Song of Hariyashoten」という、少し過剰なナルシズムさえ感じる女性ボーカルの歌として完成しました。

     次に「電脳世紀東京ネイショニストワルツ」のテーマソングを作成するために、生成AIのCopilotと相談しまた。

     ここからが、音楽関係者や、音楽教育者、生成AIを使って音楽を作ろうとしている人達には、重要ですが。

     音楽生成AIは、大きく分けて、私の経験では、

     1、入力した歌詞から、相応しい音楽を生成する傾向が、私の経験では見られる。

     2、音楽のジャンル(クラシック音楽や、メタル、邦楽など、曲の感情的な面も含める)。

     3、実際に演奏を行うボーカルや使う楽器の種類(男性ボーカルや、女性ボーカル、ピアノや、ドラムス、シンセサイザーなど)。

     が、音楽生成AIに入力する変数(要素)として、使われるようです。

     私が主に使用しているテキストは、松尾公也著秀和システム「SunoAIではじめる音楽生成AI入門」です。

     私が、「電脳世紀東京ネイショニストワルツ」の歌詞を、作曲する際に、サイバーパンクシティ東京で、未来の夢を追いかける若者たちなどの、テーマを生成AIのCopilotに相談するプロンプトに含めて、作成を、お願いしました。

     ちなみに主人公の耕太郎と結貴の夢は、結婚することです。後の話は、夢を叶えて夫婦となった二人の物語となります。

     結果的に、「電脳世紀東京ネイショニストワルツ」の主題歌「Full metal faith」の歌詞が完成しました。

     生成AIのCopilotに歌詞を作詞してもらう相談をする前に、サイバーパンクのSF小説に、相応しい、音楽のジャンルとしてメタルを選択することが良いのか、生成AIのCopilotに相談しています。

     結果はゴーサインです。

     そして、「電脳世紀東京ネイショニストワルツ」の主題歌「Full metal faith」は完成しました。

     下の音楽プレイヤーの▶ボタンを、指でタップしたり、クリックするとストリーミング再生が可能です。ちなみに「…」ボタンを押すとダウンロードも出来ます。

     ですが、「Full metal faith」は、生成AIのSUNOのバージョン3.5で作りました。CROPという曲の場所をカットして編集できる機能で編集しています。当時、SUNOの使い方が良くわからず、試行錯誤を繰り返しています。

     では、比較できるように、SUNOのバージョン4を使ってリマスター化を行い、高音質にした、バージョンの「Full metal faith」を聞くことが出来ます。

     下の音楽プレイヤーの▶ボタンを、指でタップしたり、クリックするとストリーミング再生が可能です。ちなみに「…」ボタンを押すとダウンロードも出来ます。

     私が聞き比べた感想では、バージョン3.5の方がボーカルが上手すぎる感じがします。バージョン4の方は人間のボーカルが歌っている感じがします。

     最初は、ボーカルの固定方法のPersona機能が使えず、不安を感じたまま、SUNOで、

    針屋書店のファンタジー小説、「ダンジョニアン男爵の迷宮競技」などのテーマソングを作成していました。

     ですが、Personaの使い方が、判って、ボーカルの固定ができるようなりました。

     そして、「Song of Hariyashoten」の女性ボーカルを、ファンタジー小説の光堕ちして牧師のマーク・ストーンの妻となる、ルーシー・ルース・ストーンとして固定しています。

     「Full metal Faith」のボーカルは、ファンタジー小説の天才ロッカーJ2Jとして固定しました。結果的に、今、執筆中の「電脳世紀東京ノーブルパゴーダ」のテーマソング「Steel bonds」を作成し出来ました。

     現在、このhariyashoten2.comの、ホームページで、視聴可能な動画「電脳世紀ノーブルパゴーダSF設定動画」で使われているテーマソングが「Steel bonds」です。SUNOのバージョン4で作成した後で、リマスターを掛けています。

     この「Steel bonds」では笑い話が在ります、私が歌詞に「Intro」と「Outro」を入力し忘れて、前奏曲が無い形として仕上がりましたが。予想外の効果が確認できました。

     ボーカルのJ2Jが息継ぎをする所から曲が始まるため、生成AIのSUNOの実力の高さを再確認しました。偶然の結果、予想外のドラマチックな曲ができました。

     ほかにも音楽生成AIでは、色々な試行錯誤の話が在りますが、別の機会に。

     では、今回の第003回の講義を終えます。

    以下のライセンスの概要
    この作品は自由にストリーミングで聴いたり、ダウンロードして個人のMP3プレーヤーやアプリで再生したりすることができます。その際、複製が生じた場合でも例外規定として許可されます。

    この作品「Full metal faith」の生成AIとの協業で作成し加工した音楽、画像は著作権により保護されています。
    © 2025 Hariya Tadamichi. All rights reserved.

    ただし、個人の非営利利用に限り、以下の条件での利用を許可します:

    本楽曲の音楽および画像は著作権により保護されています。無断転載・複製を禁じます。 ただし、以下の条件に限り、非営利目的での配布・共有を許可します:

    [クリエイティブ・コモンズ・ライセンス 表示-非営利-改変禁止4.0

    国際(CC BY-NC-ND 4.0)] https://creativecommons.org/licenses/by-nc-nd/4.0/deed.ja

    2025年04月25日 針屋書店代表 山田夢幻

Hide picture