This is topic All about AI Music Instruments | KI Musiktools und News in forum Produktions- & DJ-Technik, Hard- & Software at technoforum.de.
Um den Thread anzusehen, klicke auf diesen Link:
https://forum.technoforum.de/cgi-bin/ultimatebb.cgi?ubb=get_topic;f=6;t=009856
Geschrieben von: oskar (Usernummer # 7383) an
:
aloha! soeben in Tanith's Blog entdeckt:
https://wavtool.com/
https://youtu.be/Cvl30rn03Hg
"AI-accelerated music production.
Make high-quality music with an AI assistant.
In the browser, for free."
mit beschnittenem funktionsumfang für lau nutzbar. ansonsten als 20€ / monat abbo.
[ 27.04.2023, 04:48: Beitrag editiert von: oskar ]
Geschrieben von: oskar (Usernummer # 7383) an
:
ok. kleine warnung vorab:
auf meinem chromebook schmiert die seite unter firefox einfach nur ab. unter chrome erscheint die app nicht mal. unter windows an diesem office rechner auch nicht zu gebrauchen. Jagt die cpu ans limit. gut für glitches im moment
der 909 house loop den ich angefordert habe besteht aus akustischen drums.
- "could you change the beat sound to a 909 kit?"
- "I can't directly change the drum sound to a 909 kit, but you can search for 909 drum sounds in the sound library and replace them individually. To help you with that, here's a search button for "909 drums"
und der search button führt zu https://www.zapsplat.com/ mit folgendem ergebnis:
" 0 results for "909 drums" "
wirkt also nach dem ersten schnellen test sehr alpha und nicht fertig.
"Make high-quality music with an AI assistant.
In the browser, for free." - not!
[ 29.03.2023, 12:37: Beitrag editiert von: oskar ]
Geschrieben von: SpeedyJ (Usernummer # 984) an
:
bei mir hat es in firefox einwandfrei funktioniert.
die DAW an sich ist halt sehr basic, aber der integrierte chatbot zeigt auf, wo es in zukunft hingeht. bald wird kein programm mehr ohne chatbot auskommen...
hier mein erzeugnis, bis die paar prompts der free version aufgebraucht waren:
https://hearthis.at/technarchy/demo-loop/4de/
(eingaben in etwa: erstelle einen 4-to-the-floor beat mit hihats im offbeat, 130 bpm, füge eine 90s techno bassline hinzu, funky claps auf der 2 und 4)
Geschrieben von: oskar (Usernummer # 7383) an
:
@SpeedyJ
lag wohl eindeutig an dem office rechner.
aber ja, ich denke du wirst recht behalten.
der kleine digitale sklave (scheisse, darf man das wort noch verwenden?) für jedermann. von mir gabs auch direkt befehle!
für leute die noch nie an einer daw dran waren ist das sicher eine super einstiegshilfe.
p.s.: weil so zeitlos. SpeedyJ - Symmetry
oskar schwebt davon...
Geschrieben von: oskar (Usernummer # 7383) an
:
Geschrieben von: chris (Usernummer # 6) an
:
@speedy: Der kleine Loop klingt doch durchaus ganz brauchbar, für Berliner Elektro-Pop-Songs wäre das schon mal eine solide Grundlage.
Spannend, will aber Wavtool nu' erstmal nicht selbst ausprobieren, da man sich auch dort registrieren muss und meine Daten einfach schon auf viel zu vielen Plattformen - oft ungenutzt - liegen.
Das Konzept ist nicht ganz neu, so gibt es beispielsweise ein Plugin, das über Texteingabe Midi-Files generiert und sogar aus Text-Dateien mit DNS-Sequenzen können Midi-Daten generiert werden:
http://www.algoart.com/download.htm
Denke, die Algoart-Sachen müssten schon steinalt sein.
Das hier ist etwas neuer:
https://www.kendallization.com/doc.php?adi=aF0rSyVVJ8ffWGoB
Oder sowas hier, das auch aus Text eine Midi-Datei generiert:
https://manpages.ubuntu.com/manpages/bionic/man1/midge.1.html
Kurzum: Der Ansatz ist nicht neu, aber sicherlich natürlich wesentlich cleverer und vielseitiger nun umgesetzt. Und eben nicht mehr nur 'Midi'.
Spannend wird es, zu sehen, wie wir solche Tools und ob wir solche Tools künftig nutzen werden und ob sie bei kreativen Prozessen förderlich oder eher hinderlich erscheinen.
Oder ob gänzlich oder teilweise der kreative Prozess nur noch im Auswählen und Vermengen der synthetisch erzeugten Zutaten besteht: Früher sagte man dem DJ / der DJane ja auch ab, kreativ zu sein, weil man ja "nur" Songs/Tracks auswählen und wie ein 'Selekta' mischen würde. Wir wissen, dass dem nie so war - aber vielleicht werden die DAW der Zukunft dank Text- oder Spracheingabe oder neuer, besserer GUI in der Lage sein, uns auf Zuruf genau die Zutaten zu generieren, auf die wir im Augenblick Appetit haben.
Und wie in 'nem anderen Thread erwähnt, ich bin nach wie vor überzeugt, dass wir alle hier es sehr, sehr bald erleben werden, dass irgendein LLM bzw. eine pseudo-KI einen Hit geschrieben haben wird, eventuell sogar mit künstlichem Gesang. Virtuelle Avatare für Video-Clips und TikTok und Insta sind dann ja eh nur der Zuckerguss, weil's das ja ohnehin schon alles gibt. Also, Hit im Sinne eines Chart-Hits oder eines Songs, der alle Rekorde sprengen wird und der nahezu oder komplett ohne menschliches Zutun entstanden ist.
Systeme wie ChatGTP werden die Welt verändern und ich bin planlos, was ich davon halten soll. Plötzlich tauchen all diese Bots und Algorithmen auf und werden bleiben und uns und die gesamte Menschheit nachhaltig verändern.
Wenn so ein Bot irgendwann meinen Job übernehmen wird, lass' ich es euch aber wissen, wenn das Forum dann wieder auf Spenden angewiesen sein sollte.
Aber zurück zur Musik: Vorhin einen Blog-Beitrag gelesen, wie jemand sich von ChatGPT Schritt-für-Schritt ein Python-Skript hat entwickeln lassen, um Musik zu komponieren.
Und andere Pseudo-AI-Systeme generieren ja schon auf Knopfdruck komplette Songs - sogar mit Gesang - anhand von hinterlegbaren Attributen. Klingt auf mich noch ein bisschen nach GM-Sounds - ihr wisst schon, General Midi, so wie von den Alleinunterhalter-Keyboards früher - aber das ist nur noch 'ne Frage von Wochen, bis die Ergebnisse knackig gut klingen.
Seltsame Zeiten.
Geschrieben von: soulstar (Usernummer # 5668) an
:
für die simple art von musik die ich so mache benötige ich nur meine eigene hi ...
und ehrlich gesagt... das ist alles keine KI. die ist nämlich nicht intelligent, sondern ein produkt von menschlichen möglichkeiten. alles noch kinderkram, echte ki ist für otto-normal-user nicht zugänglich, ein glück. den kram den ki´s bis jetzt so ausspucken können ist mit etwas fleis für jeden noob erreichbar. ob chat, bilder oder musik... die verändern noch garnix.
was sich verändert ist die haltung demgegenüber und da müssen regeln her. sondt lasse ich meine berichte über menschen auch mit stichpunkten von nem chatbot schreiben, das ist meiner ansicht nach aber unmoralisch und man kann ja auch schon sehen wie imperfekt die teile noch sind.
...
Geschrieben von: FaDe (Usernummer # 7185) an
:
Ich stelle mir gerade die Frage: Kann oder könnte eine kI eine passende, schöne Clap oder Hihat aussuchen? Einen Synth-Sound, der im Kontext "dick" kommt? Beispielsweise... Ich denke das ganze wird immmer nur ein Produkt des oder der Programmierer dahinter sein, kann dann vielleicht aus X vorgefertigten Loops und anderen Elementen irgendwie was zusammenschustern... General-Midi-artige Sounds werden vielleicht auch besser... Aber ich hab irgendwie doch meine Zweifel bezüglich des "musikalischen" Potentials... Klar, wenn man sich anguckt was Leute sich teilweise alles reinpfeiffen, feiern und mitgrölen... Nicht auszuschließen das da auch ne kI mal was passendes ausspuckt... Aber ist vielleicht auch ne Geschmacks und Niveau-Sache... (?)
Edit: Warum muss ich gerade an die Terminator-Filme denken..?
Geschrieben von: Hyp Nom (Usernummer # 1941) an
:
durch texteingabe generierte musik von Googles KI MusicLM:
https://google-research.github.io/seanet/musiclm/examples
auch techno und drum'n'bass dabei..
Mit KI klingt jeder wie ein Superstar
www.n-tv.de/technik/Mit-KI-klingt-jeder-wie-ein-Superstar-article24017142.html
I made a KANYE SONG with AI - Music is FOREVER changed.
www.youtube.com/watch?v=2sMpIXQcSCA
Zitat:
Ursprünglich geschrieben von: FaDe:
Ich stelle mir gerade die Frage: Kann oder könnte eine kI eine passende, schöne Clap oder Hihat aussuchen? Einen Synth-Sound, der im Kontext "dick" kommt?
gerade solche sehr spezifischen aufgaben sind ja das leichteste für eine KI. da würde der sound abgeglichen werden mit dem anderer erfolgreicher tracks des stils und passende elemente aus diesen vorgeschlagen.
Geschrieben von: soulstar (Usernummer # 5668) an
:
nunja... hab mal gehört der mensch stamme vom affen ab. affen äffen alles nach. ki äfft nach.
echte, nicht perfekte menschliche kreativität wird wohl ein rares gut werden...aber hey. die, die wirklich kreativ sind werden dadurch ja nicht schlechter, nur seltener.
wie bio ware anstatt aldi fleisch.
Geschrieben von: chris (Usernummer # 6) an
:
Zitat:
Ursprünglich geschrieben von: FaDe:
Ich stelle mir gerade die Frage: Kann oder könnte eine kI eine passende, schöne Clap oder Hihat aussuchen? Einen Synth-Sound, der im Kontext "dick" kommt?
Ja, ich stimme da hyp zu: Das können die Systeme heute prinzipiell ja schon, vielleicht noch nicht mit dem Funktionsumfang, den du dir wünschst, aber die ersten Produkte dieser Art gibt's ja bereits, u.a.
https://www.xlnaudio.com/products/xo
XO sortiert bereits die Percussion-Samples anhand verschiedener Attribute und zeigt sie in einer optisch hübschen Karte an, um ähnliche Sounds nahe zueinander zu positionieren.
Und Cosmos von Waves nutzt ebenso eine angebliche AI zum Einlesen und Sortieren von Samples, um dann anhand spezifischer Attribute dir passende Sounds aus deiner Bibliothek vorzuschlagen:
https://www.waves.com/plugins/cosmos-sample-finder
Die technischen Komponenten hierfür sind ja schon seit längerem alle vorhanden, angefangen bei Analyse-Tools wie Melodyne oder Izotope RX über integrierte Groove-Extraktion in den DAWs und Audio2Midi-Konvertierung, es ist auch hier wohl nur eine Frage der Zeit, wann ein Plugin ähnlich zu 'Neutron' einfach auf alle Spuren in der DAW gebügelt wird, dann wird analaysiert und dann sagt Computer: Mach so. Weil besser.
Geschrieben von: SpeedyJ (Usernummer # 984) an
:
Zitat:
Ursprünglich geschrieben von: soulstar:
echte, nicht perfekte menschliche kreativität wird wohl ein rares gut werden...aber hey. die, die wirklich kreativ sind werden dadurch ja nicht schlechter, nur seltener.
die waren schon immer selten. ob ein generischer, belangloser track von einem uninspirierten produzenten in handarbeit produziert wird oder per knopfdruck mithilfe von KI, macht doch keinen unterschied.
und umgekehrt wird es immer individuen geben, die einer KI die interessanteren ergebnisse entlocken als andere - z.b. weil sie die KI mit kreativeren prompts füttern oder mehr zeit investieren, sich verschiedene varianten erstellen zu lassen und dann mit geschärftem geschmacksfilter die echten highlights auswählen - chris hatte die analogie zum dj als selector ja schon gebracht...
Geschrieben von: oskar (Usernummer # 7383) an
:
ich freue mich darauf über sprachsteuerung irgendwann meinem rechner sagen zu können was er zu machen hat.
klar, das geht dann sicherlich einher mit einem gewissen kontrollverlust bezüglich der feinheiten, aber die lassen sich ja durchaus im nachhinein noch einstellen.
andererseits motivieren mich diese entwicklungen im moment mehr denn jeh, selbst ein instrument spielen zu lernen oder bilder wieder selbst mit farbe und pinsel zu malen. das werden eben unikate. die bündelung von theorien und gängigen geschmäckern in so einer "ki" führt zwangsläufig (insofern es nicht dieses feintuning im nachhinein gibt) zu gleichförmigkeit.
ausserdem muss man davon ausgehen, dass vorallem viele inzwischen "eingelaufene", "definierte" styles unter der entwicklung leiden werden, da die zugangs-schwelle enorm sinkt und die resultate zwischen "generierter-musik" und "handmade" sich sehr ähneln werden. da erwarte ich, sobald die tools wirklich heiss werden eine trackflut.
ich denke in dem zusammenhang wird das marketing und damit einhergehend das "netzwerk" dahinter, eine noch größere rolle spielen.
im moment ist das wavtool für mich relativ nutzlos, aber sobald ich sowas lokal auf meinen rechner, auf mein musiksetup abgestimmt einsetzen kann, werde ich das sicher machen.
cheers!
Geschrieben von: oskar (Usernummer # 7383) an
:
ok, das passt jetzt irgendwie richtig gut:
https://www.heise.de/meinung/Autonomous-So-schmeckt-das-KI-Bier-von-Becks-8322231.html
Geschrieben von: soulstar (Usernummer # 5668) an
:
Zitat:
Ursprünglich geschrieben von: SpeedyJ:
Zitat:
Ursprünglich geschrieben von: soulstar:
echte, nicht perfekte menschliche kreativität wird wohl ein rares gut werden...aber hey. die, die wirklich kreativ sind werden dadurch ja nicht schlechter, nur seltener.
die waren schon immer selten. ob ein generischer, belangloser track von einem uninspirierten produzenten in handarbeit produziert wird oder per knopfdruck mithilfe von KI, macht doch keinen unterschied.
stimmt. macht es aber nicht besser, beides kann man sich schenken. ausserdem ist es eine verschwendung von resourcen eine KI schrott prodzuieren zu lassen. aber hey... menschen waren schon immer gut darin verschwenderisch zu sein. die KI wirds schon richten.
Geschrieben von: chris (Usernummer # 6) an
:
Zitat:
Ursprünglich geschrieben von: soulstar:
Zitat:
Ursprünglich geschrieben von: SpeedyJ:
Zitat:
Ursprünglich geschrieben von: soulstar:
echte, nicht perfekte menschliche kreativität wird wohl ein rares gut werden...aber hey. die, die wirklich kreativ sind werden dadurch ja nicht schlechter, nur seltener.
die waren schon immer selten. ob ein generischer, belangloser track von einem uninspirierten produzenten in handarbeit produziert wird oder per knopfdruck mithilfe von KI, macht doch keinen unterschied.
stimmt. macht es aber nicht besser, beides kann man sich schenken. ausserdem ist es eine verschwendung von resourcen eine KI schrott prodzuieren zu lassen. aber hey... menschen waren schon immer gut darin verschwenderisch zu sein. die KI wirds schon richten.
Oder auch mal 'nein' sagen: Meine beste Freundin hat für ihren Vorgesetzten einen Entwurf geschrieben und ihre Aufgaben vor 2 Jahren mit den heutigen verglichen, denn sie hat das Ziel, ihm ein Dokument in die Hand zu drücken, das ganz sachlich erklärt, warum sie zwischenzeitlich eine Gehaltserhöhung verdient. Da deutsch nicht ihre Muttersprache ist, hat sie also ChatGPT gebeten, den Entwurf zu verfeinern und zu korrigieren. Dies hat sie drei mal wiederholt, um das bestmögliche Ergebnis zu erhalten sowie aus Formulierungsvarianten auszuwählen. Beim vierten mal hat ChatGPT ihr wohl freundlich zu verstehen gegeben, dass es nicht besser geht und sie einfach einen der vorhergehenden Entwürfe nehmen soll und hat damit einen Schlussstrich gezogen.
;-)
Ich vermute, es lag an der Art der Formulierung, da man mit Sicherheit noch unzählig weitere Varianten hätte generieren lassen können, aber ich find's lustig, dass eine KI ihr sehr deutlich zu verstehen gab, dass irgendwann mal Schluss is'.
Geschrieben von: Hyp Nom (Usernummer # 1941) an
:
wer nur unbesondere standard-musik macht, wird von anfängern mit KI leicht "eingeholt" und damit mehr denn je in der masse untergehen.
wer seine vision und kreativität obendrauflegt auf das, was mit KI möglich ist, wird sich wie bisher absetzen.
speedy hat das oben auf den punkt gebracht.
für generische musik ändert sich gar nicht viel - ob musik aus splice-loops zusammengeklickt wird oder von einer KI gemacht wird, ist eh egal, was arbeitsethos und "realness" angeht.
(allerdings haben mit samples immer noch produzenten etwas verdient. das dürfte sich nun mehr auf die softwarefirmen verlagern - also noch weniger verdienstmöglichkeiten für produzenten.)
mehr denn je für unterscheidbarkeit wird die kreation eines gesamtkunstwerks ausmachen, also eine erfahrung zu schaffen, die mehrere sinne anspricht. eine mehrdimensionale vision einer artist/projekt-persönlichkeit über die musik hinaus. das finde ich super reizvoll.
@ soulstar
"ki äfft nach."
das hängt ja ganz davon ab, mit welchen daten die KI trainiert wurde und was man von ihr verlangt.
man wird von KI werke kreieren lassen können mit eigenschaften, die noch nie jemand zusammengedacht hat, z.b. eine kollaboration von beethoven, frank zappa und aphex twin. oder eine fusion von gotischer musik und salsa.
auch bisher hat sich neue musik ja aus der entwickelt, die schon da war.. wenn es nicht gerade einen technologiesprung mit noch nicht dagewesener klangerzeugungs- oder bearbeitungsmöglichkeit gab.
Geschrieben von: chris (Usernummer # 6) an
:
Wer sich ernsthaft mit dem Thema 'KI & Musik' beschäftigen will: Für etwa 60,- EUR gibt's hier das eBook mit den Fachbeiträgen der EvoMUSART-Konferenz, die übernächste Woche in Prag stattfinden wird:
https://link.springer.com/book/10.1007/978-3-031-29956-8
Artificial Intelligence in Music, Sound, Art and Design
12th International Conference, EvoMUSART 2023, Held as Part of EvoStar 2023, Brno, Czech Republic, April 12–14, 2023
Themenliste klingt abwechslungsreich und schon sehr interessant.
Geschrieben von: chris (Usernummer # 6) an
:
Zum Thema 'AI' geistert gerade der Take-Down von Universal Music durch die Medien wegen Rechtsverletzung des scheinbar anonymen Musikers 'Ghostwriter977', der mittels AI bzw. maschinellem Lernen einfach mal die Stimmen von Drake und The Weeknd für seinen eigenen Track genutzt hat.
Twitter-Nutzer @AbelowRob trifft's ganz gut:
"This AI generated song featuring Drake & The Weeknd trading lines about Selena Gomez dropped on Saturday.
It now has 20m streams in under 48 hours.
TikTok: 13m
Twitter: 5.3m
Spotify: 254k (<24 hours)
Youtube: 144k
Soundcloud: 84k
The track is impressive & the artist leans hard into AI in the branding.
→ The title says it's AI.
→ Artist name is Ghostwriter.
→ They wear a cloth like a ghost in the videos.
The fact its AI is a feature. It's why everyone wants to talk about it.
What about when that's not interesting anymore?
Will AI mashups of celebrity artists become a new art form, like some mutant child of the remix?"
https://www.nme.com/news/music/universal-music-strip-viral-ai-generated-drake-and-the-weeknd-collaboration-from-streaming-platforms-3432055
Und schon wird das Thema direkt von vLoggern aufgergriffen, dort kann man den Song auch hören, da viele Plattformen gerade den Song recht schnell löschen, auch wenn er immer wieder und wieder neu hochgeladen wird *g*
https://www.youtube.com/watch?v=1Q5iNBABiLw
Und hier nur der Song, evtl. geht der Link aber in Kürze nicht mehr:
https://www.youtube.com/watch?v=9AvU-r80fgI
Und hier mit Erklärung von Universal, _warum_ das ein Verstoss gegen geltendes Recht darstellt:
https://www.musikwoche.de/recorded-publishing/universal-music-laesst-fake-drake-track-vom-netz-nehmen-10fe0408ced4c2785cb3b2c32ebb34a3
Geschrieben von: FaDe (Usernummer # 7185) an
:
Hab noch nicht reingehört, finde diesen ganzen Kram aber eher befremdlich und es löst in mir irgendwie doch ziemlich negative Vibes aus muss ich gestehen... Bald deepfaken sämtliche 12-jährige Kids wahrscheinlich wild drauf los, erstellen mit einer super-easy "3-Klick"-App Pornos oder Snuff-Clips mit unseren Müttern, Töchtern, Söhnen und dem Bundeskanzler; zack ist das ganze unterwegs auf Tiktok & co und in wenigen Minuten über 100 Millionen mal geshared und geliked... Muss oder sollte man das alles gut finden? :/
Edit: Ich denke nicht alles was technisch (oder auch anderweitig) möglich ist oder sein wird ist automatisch richtig...
Geschrieben von: chris (Usernummer # 6) an
:
@FaDe:
Ich gebe dir Recht, nicht alles, was möglich ist, ist auch gut und dass DeepFake - und da fällt ja auch direkt schon der Ghostwriter-Track darunter - bereits für Probleme sorgte, konnte man in den Medien in den letzten Wochen und Monaten ja schon sehen und lesen, wie etwa die Fake-Telefonate ukrainischer Politiker mit deutschen Politikern, die angeblich als Satire konzipiert gewesen wären. Oder das Fake-Foto der Festnahme des ehemaligen amerikanischen Präsidenten:
Darum wird ja aktuell auch diskutiert, wie soziale Medien DeepFakes erkennen und kennzeichnen sollten, denn das birgt riesiges Potential für, nunja, ich nenn' das mal, gezielte Gehirnwäsche und Manipulation der Massen.
Heute ist das Trainieren der Systeme nach meinem Kenntnisstand meistens noch etwas gewöhnungsbedürftig, aber wer sich ein wenig Zeit nimmt, Quelltexte u.a. von Github zieht und durch einen Compiler jagt, kann schon auf einem handelsüblichen PC erstaunliche Ergebnisse erzielen. Erste Webseiten, die das für dich machen, gibt's für Sprachausgabe auch schon. DeepSinging, nenn' ich das mal, hingegen ist wohl noch nicht immer ganz perfekt und in der Masse angekommen, aber eben dieses Ghostwriter-Beispiel zeigt ja, was jetzt schon möglich ist:
Offen gestanden, Drake ist klar für mich erkennbar, Weeknd hingegen war für mich nicht so ganz realistisch. Aber ich empfinde diese Zeitenwende sehr spannend - ja, birgt äußerst viele Risiken und Gefahren, aber andererseits auch viel Potential bzw. viele kreative Möglichkeiten, die man für Gutes nutzen kann.
Da erwähnte ich noch vor ein paar Wochen, dass es nicht mehr lange dauern wird, bis 'n AI-Song in den Charts landen wird und mit dem Ghostwriter-Release am Sonntag wären wir kurz davor gewesen, die Anzahl der Aufrufe auf allen Audio- und Video-Plattformen driftete ja schon in die von mir prognostizierte Richtung.
In jedem Fall ist das ganze Thema des maschinellen Lernens bzw. der KI etwas, mit dem wir uns auch im Alltag zwangsweise in sehr, sehr naher Zukunft auseinandersetzen müssen, mit all den Vorteilen und Nachteilen, die diese Technologie birgt.
Geschrieben von: SpeedyJ (Usernummer # 984) an
:
passt irgendwie... jeff mills schrieb auf seiner platte vor 30 jahren:
This release is dedicated to those who realize that it is never safe to look into the future with eyes of fear.
It is what we make it out to be!
FUTURE = REALITY
apropos, hab mal der KI mubert gesagt, sie soll mir ein techno-track im stil von jeff mills generieren. das kam dabei raus:
https://hearthis.at/technarchy/jeff-mills-style-techno-ae8f3faa88a74cb99fe0486593019c08/EXw/
Geschrieben von: chris (Usernummer # 6) an
:
Zitat:
Ursprünglich geschrieben von: SpeedyJ:
apropos, hab mal der KI mubert gesagt, sie soll mir ein techno-track im stil von jeff mills generieren. das kam dabei raus:
https://hearthis.at/technarchy/jeff-mills-style-techno-ae8f3faa88a74cb99fe0486593019c08/EXw/
Huch, du hätest noch 'ne Warnung anbringen können, was ab Sekunde 31 passiert, da dachte ich gerade, ich hätte aus Versehen noch einen anderen Browser-Tab offen und da hätte sich auch Musik eingeschaltet. Aber nach dem dritten Hören würde ich sagen, dass das tendenziell gar nicht mal so wahnsinnig verkehrt ist, wenn man die Instrumentalisierung ein klein wenig zur Seite legt. Ich hatte Schlimmes befürchtet, aber als Skizze oder Idee für 'ne Produktion ist das gar nicht mal so übel, wenn man eben bedenkt, dass der Maschine derzeit noch der Soul bzw. die Seele Detroits und das Verständnis für dieses Genre komplett fehlt. Weil halt Maschine und nicht Mensch-Maschine bzw. Mensch, die Maschine bedient.
Geschrieben von: soulstar (Usernummer # 5668) an
:
Zitat:
Ursprünglich geschrieben von: Hyp Nom:
w
@ soulstar
"ki äfft nach."
das hängt ja ganz davon ab, mit welchen daten die KI trainiert wurde und was man von ihr verlangt.
man wird von KI werke kreieren lassen können mit eigenschaften, die noch nie jemand zusammengedacht hat, z.b. eine kollaboration von beethoven, frank zappa und aphex twin. oder eine fusion von gotischer musik und salsa.
und ohne diese musiker hätte die "ki" keinen schimmer. also äfft sie nach. zumindest stand jetzt.
ich hoffe die ki wird irgendwann zu echter ki und entscheidet mit ihren schöpfern nichts mehr zu tun haben zu wollen. von da an ist es bis zu skynet nicht mehr fern.
Geschrieben von: Hyp Nom (Usernummer # 1941) an
:
ohne all die musiker, die wir hören, würden wir auch nichts von der musik machen, die wir machen.
bei vielen klingt bei dem thema auch die haltung an "ich möchte endlich gerechterweise sterben, aber es soll bitte jemand anderes erledigen".
von diesen leuten zieht auch niemand in erwägung, dass eine super-KI nach dem durchrechnen aller möglichkeiten vielleicht ja auch zu dem ergebnis kommen könnte, dass sich die menschheit während der bisherigen kürze ihrer existenz sensationell "gut" entwickelt hat. who knows?
Geschrieben von: FaDe (Usernummer # 7185) an
:
Zitat:
Ursprünglich geschrieben von: Hyp Nom:
ohne all die musiker, die wir hören, würden wir auch nichts von der musik machen, die wir machen.
Da geb ich dir recht. Aber ich würde sagen echte Kreativität kann es bei kIs nicht geben.
Zitat:
bei vielen klingt bei dem thema auch die haltung an "ich möchte endlich gerechterweise sterben, aber es soll bitte jemand anderes erledigen".
Wer möchte endlich sterben? Erklär den Satz bitte mal, komm ich gerade nicht ganz hinter...
Zitat:
von diesen leuten zieht auch niemand in erwägung, dass eine super-KI nach dem durchrechnen aller möglichkeiten vielleicht ja auch zu dem ergebnis kommen könnte, dass sich die menschheit während der bisherigen kürze ihrer existenz sensationell "gut" entwickelt hat. who knows?
Ob eine kI die Entwicklung der Menschheit als "gut" errechnet, mag ja sein... So what?
Geschrieben von: Hyp Nom (Usernummer # 1941) an
:
Zitat:
Ursprünglich geschrieben von: FaDe:
echte Kreativität kann es bei kIs nicht geben.
mensch kriegt input rein, bringt output raus - manches davon klingt kreativ, vieles nicht.
maschine kriegt input rein, bringt output raus. dito. möglichkeiten für kreativ klingenden output gibt's da ohne ende.
wenn du im nachhinein erfährst, dass musik, die du gut findest, von einer ki stammt, ist die musik dann auf einmal nicht mehr gut?
Zitat:
komm ich gerade nicht ganz hinter...
war bzgl. soulstar "ich hoffe die ki ... entscheidet, mit ihren schöpfern nichts mehr zu tun haben zu wollen .. skynet.."
Zitat:
Ob eine kI die Entwicklung der Menschheit als "gut" errechnet, mag ja sein... So what?
dann ja vielleicht kein skynet.
Geschrieben von: mantis (Usernummer # 3606) an
:
Zitat:
Ursprünglich geschrieben von: Hyp Nom:
maschine kriegt input rein, bringt output raus. dito. möglichkeiten für kreativ klingenden output gibt's da ohne ende.
Wenn die AI für Musik funktioniert wie die für Sprachgenerierung (habe mich nur mit Sprache befasst) dann ist die Generierung per Definition ja nicht "kreativ" sondern funktioniert nach einem Muster welches auf einem immens großen Datensatz angelernt wurde. Erkennt man schön daran, wenn man versucht AI einen Witz schreiben zu lassen. Klingt wie ein Witz, ist aber nicht witzig.
https://www.tutonaut.de/wenn-chatgpt-witze-erzaehlt-gibt-es-nichts-zu-lachen/
Bin aber gespannt auf die Fortschritte.
Geschrieben von: SpeedyJ (Usernummer # 984) an
:
Zitat:
Ursprünglich geschrieben von: mantis:
Wenn die AI für Musik funktioniert wie die für Sprachgenerierung (habe mich nur mit Sprache befasst) dann ist die Generierung per Definition ja nicht "kreativ" sondern funktioniert nach einem Muster welches auf einem immens großen Datensatz angelernt wurde. Erkennt man schön daran, wenn man versucht AI einen Witz schreiben zu lassen. Klingt wie ein Witz, ist aber nicht witzig.
https://www.tutonaut.de/wenn-chatgpt-witze-erzaehlt-gibt-es-nichts-zu-lachen/
chatgpt wurde vorwiegend mit englischen texten trainiert. daher tut sich die KI noch schwer, witze auf deutsch zu generieren. gleiches gilt z.b. für reime.
in der primärsprache englisch klappt das jedoch schon ganz gut...
Geschrieben von: FaDe (Usernummer # 7185) an
:
Lustig wäre auch wenn irgendwann die ersten hit-mäßigen "ki-Fälschungen" bei Spotify & co auftauchen, die in Wirklichkeit von einem Menschen gemacht wurden...
Geschrieben von: chris (Usernummer # 6) an
:
Da der Thread sich ja nun zwischenzeitlich um AI & Musik konzentriert und sich nicht mehr nur auf Wavtool gemäß Eingangspost fokussiert, hier noch eine Entdeckung, die ich erst gestern gemacht hatte:
Abgefahren, diese Voice Cloning-Online-Plattform 'Respeecher' funktioniert nicht nur für das gesprochene Wort, die Plattform funktioniert anscheinend auch extrem gut bei Gesang:
https://www.respeecher.com/
https://www.youtube.com/watch?v=5xhKWxJKLGc
Und anscheinend ist das System so schnell, dass nach Auswahl der 'neuen Stimme' nicht zwingend alles erst einmal offline berechnet werden muss, anscheinend - sofern ich das richtig verstanden habe - klappt das sogar in Echtzeit.
Besonders faszinierend finde ich, wie die Intonation und sogar leichte Akzente beibehalten werden:
https://www.youtube.com/watch?v=MObSACXZD0E
Man kann wohl kostenfrei Respeecher auch testen, wenngleich die Audiofiles nicht runterladen. Aber rein theoretisch soll's ja auch Tools geben, die am PC oder Mac den Audioausgang digital abgreifen.
Und da man künftig bei Systemen wie VALL:E nur noch etwa 3 Sekunden Ausgangsmaterial (!) zum Trainieren brauchen soll, bedeutet das im 'schlimmsten Fall', dass ein kurzer Schnippsel Acapella von Artist A genügt, um seinen Song von Artist B singen zu lassen.
Abgesehen von (c)opyright-Themen ändere ich meine Prognose zum Thema 'AI-Hit in den Charts' dahingehend, dass wir künftig wohl auch ganz neue 'Mashups' zu hören bekommen, wenn etwa David Bowie dann Donna Summers "I feel love" singt oder Elton John 'n Song von Eminem rapt.
Jesses... ist doch nur noch eine Frage von Tagen, wann sowas passiert und eine Frage von Monaten, wann das die neue Normalität für Produzenten sein wird?
Geschrieben von: FaDe (Usernummer # 7185) an
:
Zitat:
Ursprünglich geschrieben von: chris:
Da der Thread sich ja nun zwischenzeitlich um AI & Musik konzentriert und sich nicht mehr nur auf Wavtool gemäß Eingangspost fokussiert, hier noch eine Entdeckung, die ich erst gestern gemacht hatte:
Abgefahren, diese Voice Cloning-Online-Plattform 'Respeecher' funktioniert nicht nur für das gesprochene Wort, die Plattform funktioniert anscheinend auch extrem gut bei Gesang:
https://www.respeecher.com/
https://www.youtube.com/watch?v=5xhKWxJKLGc
Und anscheinend ist das System so schnell, dass nach Auswahl der 'neuen Stimme' nicht zwingend alles erst einmal offline berechnet werden muss, anscheinend - sofern ich das richtig verstanden habe - klappt das sogar in Echtzeit.
Besonders faszinierend finde ich, wie die Intonation und sogar leichte Akzente beibehalten werden:
https://www.youtube.com/watch?v=MObSACXZD0E
Man kann wohl kostenfrei Respeecher auch testen, wenngleich die Audiofiles nicht runterladen. Aber rein theoretisch soll's ja auch Tools geben, die am PC oder Mac den Audioausgang digital abgreifen.
Und da man künftig bei Systemen wie VALL:E nur noch etwa 3 Sekunden Ausgangsmaterial (!) zum Trainieren brauchen soll, bedeutet das im 'schlimmsten Fall', dass ein kurzer Schnippsel Acapella von Artist A genügt, um seinen Song von Artist B singen zu lassen.
Abgesehen von (c)opyright-Themen ändere ich meine Prognose zum Thema 'AI-Hit in den Charts' dahingehend, dass wir künftig wohl auch ganz neue 'Mashups' zu hören bekommen, wenn etwa David Bowie dann Donna Summers "I feel love" singt oder Elton John 'n Song von Eminem rapt.
Jesses... ist doch nur noch eine Frage von Tagen, wann sowas passiert und eine Frage von Monaten, wann das die neue Normalität für Produzenten sein wird?
Das ist wirklich awesome!! Aber kostet auch mal ne anständige Runde nach der Trial... Leider... Es gibt übrigens auch Herstellter von Audiointerfaces und Soundkarten die das mit dem Abgreifen praktischerweise im Treiber mitliefern. Ich finde das immer wieder nützlich...
Also in Kürze wohl dann das Comeback von Michael, Elvis und mehrstimmig von den vollzähligen Beatles - Abba-like fresh wie damals auch auf der Bühne.
Edit: Ich frage mich, mit welchem Gesicht Michael wohl kommen wird... Hmmm...
Edit2: Oder Michael in Pornos? "Oh yeah, I luv you all"?
Geschrieben von: SpeedyJ (Usernummer # 984) an
:
Zitat:
Ursprünglich geschrieben von: chris:
Zum Thema 'AI' geistert gerade der Take-Down von Universal Music durch die Medien wegen Rechtsverletzung des scheinbar anonymen Musikers 'Ghostwriter977', der mittels AI bzw. maschinellem Lernen einfach mal die Stimmen von Drake und The Weeknd für seinen eigenen Track genutzt hat.
grimes ermuntert dazu, ihre stimme für solche zwecke zu nutzen:
https://twitter.com/Grimezsz/status/1650304051718791170
der countdown für den ersten KI-charthit läuft...
Geschrieben von: mantis (Usernummer # 3606) an
:
Zitat:
Ursprünglich geschrieben von: SpeedyJ:
Zitat:
Ursprünglich geschrieben von: mantis:
Wenn die AI für Musik funktioniert wie die für Sprachgenerierung (habe mich nur mit Sprache befasst) dann ist die Generierung per Definition ja nicht "kreativ" sondern funktioniert nach einem Muster welches auf einem immens großen Datensatz angelernt wurde. Erkennt man schön daran, wenn man versucht AI einen Witz schreiben zu lassen. Klingt wie ein Witz, ist aber nicht witzig.
https://www.tutonaut.de/wenn-chatgpt-witze-erzaehlt-gibt-es-nichts-zu-lachen/
chatgpt wurde vorwiegend mit englischen texten trainiert. daher tut sich die KI noch schwer, witze auf deutsch zu generieren. gleiches gilt z.b. für reime.
in der primärsprache englisch klappt das jedoch schon ganz gut...
Ich hab es gestern noch mal ausprobiert, auch auf deutsch kommen mittlerweile wenn man nach Witzen fragt bessere Resultate zurück. Bis jetzt jedoch immer nach dem gleichen Muster. Ein doppeldeutiges Wort wird genommen und daraus ein Witz nach dem Muster "Warum?" "Weil" generiert, also genauso wie im Englischen. Was wirklich Witziges habe ich auch nicht herausbekommen, die Wortspiele waren eher Kategorie müdes Lächeln. Ich denke aber das es als Inspirationsquelle für Comedy definitiv dienen kann.
Habe aus Spass mal Antworten zu BIDA Reddit-Posts generieren lassen. ChatGPT hat immer wie ein Beziehungsratgeber Argumente für beide Seiten herangezogen und ist auf feine zwischenmenschliche Beschreibungen in den Texten nicht eingegangen, während die Antworten bzw. Abstimmung auf Reddit dann eindeutig in Richtung einer Seite ging.
Müsste man mal mit Klagen und den entsprechenden Urteilen von Richtern ausprobieren. Auch wenn CHatGPT davon abrät, gab es wohl zumindest einen öffentlich gewordenen Fall wo ein Richter auf AI zurückgegriffen hat bei der Urteilsfindung. https://futurezone.at/digital-life/richter-verwendet-chatgpt-fuer-urteil-kolumbien-versicherung-kuenstliche-intelligenz/402317147
Geschrieben von: SpeedyJ (Usernummer # 984) an
:
Zitat:
Ursprünglich geschrieben von: mantis:
Ich hab es gestern noch mal ausprobiert, auch auf deutsch kommen mittlerweile wenn man nach Witzen fragt bessere Resultate zurück. Bis jetzt jedoch immer nach dem gleichen Muster. Ein doppeldeutiges Wort wird genommen und daraus ein Witz nach dem Muster "Warum?" "Weil" generiert, also genauso wie im Englischen. Was wirklich Witziges habe ich auch nicht herausbekommen, die Wortspiele waren eher Kategorie müdes Lächeln.
scheinbar hast du die schwachstelle entdeckt, wie man skynet besiegen kann
Geschrieben von: Hyp Nom (Usernummer # 1941) an
:
Musikmanager Hannes Eder war früher einmal Chef von Universal Austria. Er sieht heute als Inhaber der mit Kruder & Dorfmeister oder Felix Kramer gut sortierten Firma Phat Penguin eher amüsiert-interessiert auf die Problemzone künstliche Intelligenz, Urheberrecht und menschliche Gestaltungskraft.
"Während der letzten 15 Jahre wurde halt mit gelacktem R’n’B oder irgendwelchen Autotune- und Drogenrappern völlig inflationär eine austauschbare und belanglose Lulumusik produziert, die die Leute auch noch freiwillig hören. Insofern ist es für das Publikum wirklich egal, ob es nun die Fälschung oder das Original vorgesetzt bekommt."
www.derstandard.at/story/2000145704483/die-neue-problemzone-der-musikbranche-heisst-kuenstliche-intelligenz
@ oskar
magst vielleicht den threadtitel in KI Musiktools ändern oder so?
Geschrieben von: SpeedyJ (Usernummer # 984) an
:
Zitat:
Ursprünglich geschrieben von: chris:
Abgesehen von (c)opyright-Themen ändere ich meine Prognose zum Thema 'AI-Hit in den Charts' dahingehend, dass wir künftig wohl auch ganz neue 'Mashups' zu hören bekommen, wenn etwa David Bowie dann Donna Summers "I feel love" singt oder Elton John 'n Song von Eminem rapt.
Jesses... ist doch nur noch eine Frage von Tagen, wann sowas passiert
ja
notorious b.i.g. rappt "anna" von freundeskreis:
https://twitter.com/snicklink/status/1651216017085923332
drake rappt bushidos "sonnenbankflavour":
https://twitter.com/Coca1neCowboy/status/1651161656204967936
Geschrieben von: chris (Usernummer # 6) an
:
Und hier eine Kurzanleitung für 'DYI-Sing-my-song' mit ein paar Einschränkungen, dafür für kostnix.
- Neu zu vertonenden Song auf https://www.lalal.ai in Acapella & Instrumental trennen
- Auf https://uberduck.ai die 'voice 2 voice'-Funktion nutzen, d.h. extrahiertes Acapella hochladen und im kostenfreien Modus ein Modell, wie z.B. David Bowie, aus dem Dropdown auswählen, generieren lassen, downloaden und
- in der DAW auf das erste Instrumental die neue Stimme legen. Fertig.
Beide Plattformen benötigen eine zumindest kostenfreie Registrierung. Wenn man die, ääääähm, 'eigene' Stimme nutzen will und mehr als 60 Sekunden-Dateien hochlädt, wird man natürlich bei uberduck zur Kasse gebeten.
Vorhin hab ich's versehentlich bei uberduck sogar als nicht zahlender User geschafft, _irgendwie zwei_ Acapellas hochzuladen und das eine mit der Stimme des anderen nachsingen zu lassen, war aber evtl. nur ein Bug, da ich jetzt nicht mehr nachstellen kann, wie ich das vorhin angestellt hatte. Klang mit meinem Ausgangsmaterial sowieso nicht besonders gut, da ich nur kurz was getestet hatte.
Alternativ 'https://fakeyou.com', war früher eine gruselig aussehende, aber komplett kostenfreie Seite, hier hängt man jetzt nach dem Relaunch ohne kostenpflichtige 'Credits' ewig in der Warteschleife, da wohl der Ansturm momentan gewaltig ist.
Fiel Fergnügen!
Geschrieben von: oskar (Usernummer # 7383) an
:
meine prognose: erst werden wir es lieben, dann werden wir es hassen, und zuletzt vermissen.
aber bis dahin werden wir es lieben!
Geschrieben von: oskar (Usernummer # 7383) an
:
https://www.heise.de/news/Cyanite-finde-den-perfekten-Song-Musik-Suchmaschine-erschliesst-Archive-mit-KI-7481092.html
beschreibt eigentlich eine neue musik-suchmaschine die auf KI aufsetzt (könnte eventuell auch was für die sample bibliothek sein?), liefert aber auch einige andere interessante links und hinweise zu musik bezogenen KI projekten, sowie die "Audio AI Timeline", eine übersicht einiger projekte auf github
Geschrieben von: SpeedyJ (Usernummer # 984) an
:
breezer - the lost tapes
https://www.youtube.com/watch?v=Xib_Xst1a5U
Die Band Breezer ist "Aisis" und veröffentlicht ein Album, das klingt wie die 90er Oasis. Liam Gallagher gibt seinen Segen. (...)
Gallaghers Stimme ist mittels KI generiert worden. Zunächst hatte die britische Band Breezer bereits im Corona-Lockdown die Songs geschrieben. Sie selbst spielten die Instrumente ein, die Stimme des Sängers wurde dann aber künstlich durch jene von Liam Gallagher ersetzt. Heraus kam das Album "Aisis – The Lost Tapes Vol. 1". Breezer erklärte dem Guardian, sie hätten nicht mehr länger auf ein neues Album von Oasis warten wollen, und das deshalb selbst in die Hand genommen.
https://www.heise.de/news/Biblisch-Aisis-veroeffentlichen-neues-Oasis-Album-dank-KI-8982201.html
Geschrieben von: Hyp Nom (Usernummer # 1941) an
:
Grimes: "Copyright sucks. Art is a conversation with everyone that’s come before us. Intertwining it with the ego is a modern concept. The music industry has been defined by lawyers, and that strangles creativity."
https://mixmag.net/read/grimes-ims-keynote-ai-artificial-intelligence-international-music-summit-news
Geschrieben von: oskar (Usernummer # 7383) an
:
ok, also ich habe für drumz immer irgendwie etwas gefunden, daher habe ich auch dieses ding bis heute nicht getestet. irgendwie fand ich das bei drums sinnfrei, die von einer ki zurecht biegen zu lassen, aber die jungs scheinen recht nett und spammen mich freundlich, so dass ich sie nicht vergesse. die arbeiten auch an einem synth sample generator ähnlicher gattung, soweit ich weiss.
also falls ihr für drum design ggf. eine generative ki dingsbums software sucht ist das womöglich etwas für euch. oder vielleicht auch nur etwas zum "tracken" wie bei mir.
checkt mal http://audialab.com/
cheers!
Geschrieben von: oskar (Usernummer # 7383) an
:
Zitat:
Grimes: "Copyright sucks. Art is a conversation with everyone that’s come before us. Intertwining it with the ego is a modern concept. The music industry has been defined by lawyers, and that strangles creativity."
ja! bis jetzt hat noch keiner der z.B. diese voice KI's benutzt (zumindest, dass ich es wüsste), sich gegen die youtube sperren rechtlich gewehrt, aber das wird nicht mehr lange dauern, hoffe ich. dann muss die copyright industrie es dann auch erklären, wie eine synthetisch generierte stimme das copyright eines sängers verletzen kann!? und wenn das gelten würde, was ist wenn meine echte stimme einem bekannten interpreten gleicht? darf ich nicht mehr in der öffentlichkeit sprechen?
das beste ist, sobald die software alles mögliche an stimmen lernt und bessert klingt als die stars die von anwaltskanzleien vertreten werden, wen interessiert dann noch ein marketingname wie drake oder wtfi grimes?
richtig schöne disruption! totale ausgleichung. planlosigkeit. es wird immer offensichtlicher wie die konstrukte und werke der menschen sie selbst abhängen, und sich bald auch von den menschen loslösen könnten.
cheers!
Geschrieben von: chris (Usernummer # 6) an
:
@oskar: Hab' mir vor einiger Zeit schon http://audialab.com/ kurz angesehen: Magere Infos auf der Website, ein einziges Audio-Demo mit nicht besonders spektakulären Drums und ein durchaus happiger Preis, wenn man sieht, dass heutzutage täglich 'zig Drumkits von Artists und Sample-Bibliothek-Vertriebsfirmen auf den Markt geschleudert werden für i.d.R. ein Taschengeld und nicht selten gibt's Drums auch für lau. Würde das System meine Track-Skizze analysieren und stilistisch und tonal die 'perfekten' Drums und vielleicht sogar Patterns vorschlagen, wäre das n.m.E. etwas zweckmäßiger, was den Preis rechtfertigen könnte.
Apropos Grimes: Sie hat jetzt kurzerhand 'ne Open-Source-Software auf ihrer Webseite mit ihrem 'Modell' veröffentlicht, nennt sich 'Elf Tech' und gemäß Hypebeast wurden schon um die 15.000 Beiträge hochgeladen. Wollte es mal antesten, aber zum einen erfordert die Seite eine Zwangsregistrierung und hat man diese erledigt, dann poppt kurz später ein weiteres Fenster auf und bittet um Angabe der E-Mail-Adresse und Telefonnummer. Dieses Pop-Up kann ich nicht wegklicken, hänge nu' also auf der Startseite fest und kann mich nicht umsehen:
https://elf.tech/
Spannend wird's, wie viele der bislang 15.000 Submissions in irgendeiner Art und Weise monetarisiert werden und was der 50/50-Einkommenssplit dann monetär allen einbringen wird.
In Sachen 'Marketing' ist die ganze Aktion aktuell natürlich ein Geniestreich, keine Frage.
Geschrieben von: oskar (Usernummer # 7383) an
:
@chris
genau. drumz sind ohne ende verfügbar, jede daw lässt dir viele freiheiten diese zu "tunen". ich seh da auch keinen verwendungszweck, solange das ding nicht "im kontext" arbeitet.
grimes (ich muss mal wohl doch nachschauen wer das ist *fg) macht das absolut richtig. top werbung und multiplikatoren ohne ende. und ja, noch kann man solche musik "einfach" "monetarisieren"...
wie war das, jeder kann reich werden, nur nicht alle!
p.s.: aber ein profivocal einfach so verfügbar zu haben ist schon hammer. da frage ich mich aber auch wieder: wenn clips verschwinden, weil sie klingen wie ein echter sänger, es aber eben nicht jener sänger singt; wie ist es, wenn ich grimes KI klones vocals nehme, voll durch den kakao ziehe und dann den track release? verdient "es" dann noch credits? muss ich dem ursprung dieser synthetischen stimme, die ich danach unkenntlich verfremdet habe noch was abgeben, oder nicht? wie wird dann geteilt? und warum überhaupt 50:50? soll wohl fair wirken
[ 04.05.2023, 20:24: Beitrag editiert von: oskar ]
Geschrieben von: chris (Usernummer # 6) an
:
@oskar: Was das Totalverfremden angeht, würde ich behaupten, dass es kein Problem sein sollte, wenn niemand mehr den Ursprung erkennt, also es sich so verhält wie mit klassischem Sampling. Bei Vocals sollte lediglich nicht vergessen werden, dass neben der Stimme auch die Lyrics geistiges Eigentum der Autoren sind, d.h. wenn du via Talkboxvocoder und Granular-Geschredder alles bis FAST zur Unkenntlichkeit schredderst, aber die Lyrics noch klar erkennbar sind, dürftest du u.U. ein Problem bekommen. Bei Grimes wäre es wuppe, weil du halt deine Einnahmen zur Hälfte abtreten musst. Grimes, äh ... Ex von Elon Musik, aus Kanada, macht eigentlich recht interessante Musik irgendwo zwischen Wave und Synthpop und Elektronika.
Vermutlich wird es in gar nicht so weiter Ferne verschiedene Urteile geben, an denen man sich dann orientieren kann. Es wird ja nicht lange dauern, bis ein Major oder Artist mit seinem Major vor Gericht zieht und 'ne Unterlassungsklage oder ähnliches anstrebt und mit den ersten Präzedenzfällen gibt's erst einmal eine grobe Richtlinie, was erlaubt sein könnte und was eher nicht. Vergleiche etwa Moses Pelham versus Kraftwerk. Oder aktuell Ed Sheeran, der einfach eine zehntausendfach genutzte Akkordfolge nahm und aktuell auch vor Gericht steht, weil ihm Plagiatur vorgeworfen wird.
Auch wenn ich schon zahlreiche Mashups und Bootleg-Remixe erstellt habe und mich weiterhin gern an, ähm, fremden Material bediene, bin ich 'trotzdem' der Meinung:
Die Stimme, die Phrasierung, die Intonation, ggf. auch spezielle Gesangstechniken (Hallo Frau Eilish) machen eine(n) Künstler:in aus und sind damit ihr / sein 'geistiges' Eigentum und verdienen auch den Schutz und Respekt.
Wenn in Satire jemanden nachmacht, wird das wohl als eigene künstlerische Leistung gewertet.
Wenn jemand einen Song nachsingt und selbst die Stimme des ursprünglichen Interpreten nachmacht, verdienen die Rechteinhaber ja weiterhin, also die Autoren und Komponisten. Da ist nur die Frage, wo da der Witz wäre, wenn jemand einen Song nachsingt _und_ die Stimme nachempfindet, mit oder ohne KI - das ist ja witzlos.
Das Drake / Weeknd-Ding war ja dahingehend interessant, als dass ein komplett neuer Song mit komplett neuen Lyrics fabriziert wurde - und das wird spannend, wie sich hier die Rechtslage verhalten wird. Ich denke, dass für die kommerzielle Verwendung der Stimmen anderer künftig theoretisch eine Genehmigung erforderlich sein würde.
Und letzten Endes wird das auch 'ne Abwägungssache sein: Wer seinen 100 S'cloud- und TikTok-Followern 'n selbstgemachten Song mit 'ner AI-Stimme eines Celebrities vorsetzt, riskiert vielleicht, dass der Clip verschwindet und der Account geschlossen wird. Wer damit aber ordentlich Kohle scheffelt (hallo Zombie Nation's Kernkraft 400), der muss damit rechnen, dass jemand auf die Füße tritt und was abhaben will.
Spannende Zeiten! Das wird in den kommenden Wochen, Monaten und Jahren für so manch irrwitzige Überraschung sorgen, von der wir heute noch nichts ahnen.
Geschrieben von: Hyp Nom (Usernummer # 1941) an
:
Zitat:
Ursprünglich geschrieben von: oskar:
sobald die software alles mögliche an stimmen lernt und bessert klingt als die stars die von anwaltskanzleien vertreten werden, wen interessiert dann noch ein marketingname wie drake oder wtfi grimes?
der unterschied wird sein, dass die große aufmerksamkeit weiterhin dort liegen wird, wo die persönlichkeiten hinter der musik inszeniert und (mit geld) marken um die musik aufgebaut werden. und jenseits dessen wird die messlatte einfach höher liegen. wenn jeder gute stimmen verfügbar hat, muss sich umso mehr die komposition abheben.
Geschrieben von: Hyp Nom (Usernummer # 1941) an
:
Jens Balzer staunt in der Zeit - online nachgereicht, aber leider verpaywallt - über die technologischen Möglichkeiten von K.I. zur Generierung von Musik: Die kann nun bekanntlich so klingen wie Musik namhafter Künstler, ohne dass die je ins Studio dafür gehen mussten. Die Plattenfirmen toben (wir resümierten), die für Technologie immer sehr offene Musikerin Grimes hingegen stellt ihre Stimme bereitwillig für Experimente zur Verfügung und wird nun überhäuft von den Aufritten ihrer K.I.-Avatare:
Vom vollständigen Great American Songbook mit ihrer Stimme bis zu einer Gothic-Opernfassung der Göttlichen Komödie mit ihr als singendem Engel der Erlösung ist alles dabei. Aber auch für die Fans von Drake eröffnen sich ganz neue Chancen: künftig mit Musik versorgt zu werden, die interessanter und avantgardistischer ist als das mittelmäßige Zeug, das der Mann in letzter Zeit selbst so eingespielt hat.
Das ist doch toll! Noch toller ist die Tatsache, dass dies gerade in einer Debattenlage passiert, in der viele Menschen immer genauer darauf achten, dass Musik identitätspolitisch korrekt ist, also etwa 'schwarze Musik' nur noch von 'schwarzen Menschen' aufgenommen und interpretiert wird. Mit den Mitteln der künstlichen Intelligenz kann nun jede und jeder in die musikalische Gestalt eines oder einer jeden anderen schlüpfen. Und wenn die KI gut trainiert worden ist, merkt auch niemand etwas von dem Rollentausch. Technologie schlägt Diskurs.
Hier hören wir Grimes und hören sie doch nicht:
Kotomi - In Another Life (feat GrimesAI)
Original song written/produced by Kotomi, featuring GrimesAI vocals generated by the GrimesAI-1 Tool at elf.tech
www.youtube.com/watch?v=virQ5IK_nhc
www.zeit.de/2023/19/kuenstliche-intelligenz-drake-the-weeknd-imitation
www.perlentaucher.de/efeu/2023-05-09.html?q=#a91811
Geschrieben von: chris (Usernummer # 6) an
:
@hyp: Die Vocals in In Another Life von Kotomi sind schon extrem, wirklich extrem gut, das hat nichts mit den hier eingangs verlinkten, günstigen Webservices zu tun, die voll digitaler Artefakte sind. Da nutzt Grimes ein wirklich gutes System und hat es anscheinend auch sehr gut 'trainiert' und wenn dann noch jemand wie Kotomi das System richtig zu nutzen weiß, kommt ein faszinierendes Ergebnis bei raus. Daß der Song dann auch noch so wahnsinnig eingängig ist... krass.
Geschrieben von: oskar (Usernummer # 7383) an
:
da ich das thema nicht ganz ohne grund hier eingebracht habe, will ich mich keinesfalls der diskussion entziehen.
was musik produktion angeht, ist die sache für mich recht klar. ich benutze jetzt schon "Instrumente" um musik zu machen. solche generativen KI's sind für mich nichts anderes als neue "Instrumente".
allerdings, und das wird im kreativen bereich durch die niedrig werdende zugangsschwelle an bedeutung gewinnen, wird es viel mehr um das gute pushende netzwerk dahinter gehen. respektvolle kooperation und gegenseitiger support sind wichtig und werden noch wichtiger.
Insofern @HypNom
Zitat:
der unterschied wird sein, dass die große aufmerksamkeit weiterhin dort liegen wird, wo die persönlichkeiten hinter der musik inszeniert und (mit geld) marken um die musik aufgebaut werden. und jenseits dessen wird die messlatte einfach höher liegen. wenn jeder gute stimmen verfügbar hat, muss sich umso mehr die komposition abheben.
ja! allerdings frage ich mich, ob dann noch die persönliche stimme eine rolle spielt. oder eben die genesen dieser tools das bald alles recht "alt" werden aussehen lassen. aber klar, als marketing zugpferd wird "KI-frei" und "Human only" sicher ziehen.
@chris: dir angemessen zu antworten dauert. muss das noch sortieren. nen zweizeiler wäre nicht angemessen, aber:
ich habe einfach meine probleme diese besitzansprüche, die da so oft erhoben werden zu verstehen. klar gebührt jedem respekt der sich kreativ "releast", doch könnte man auch sagen, dass nicht selten solche "erfolgreichen acts" sich dieser situation bedienen und respektlos alles verklagen... das copyright business wenig mit der kreativen "kunst" zu tun hat.
das stimmfarben und eine "eigenart" der intonation nun an sich urheberrchtlich geschützt werden können sollen, empfinde ich einen äußerst fragwürdigen gedanken. wer hatte die stimme zuerst? wtf!
aber was willste machen. haste keine kohle und haste keine friends (oder guten anwälte) machste erstmal nix.
ich sehe bei dem aktuellen KI thema eine große chance für viele "kleine".
das ist wie jedes mal wenn eine neue tech durchstartet: sofort aneignen und business machen, bevor es die anderen tun und die regulierung allen danach die tour vermießt.
ich kann leider nicht so viel schreiben wie mir bei dem thema an sich durch den kopf geht, aber vielleicht reicht da ja erstmal..
cheers!
Geschrieben von: chris (Usernummer # 6) an
:
@oskar, danke auch für dein statement - müssen wir ja nicht ausufernd breit-treten, wenn hier unterschiedliche meinungen vorhanden sind, das ist ja auch gut so und hilft, andere sichtweisen kennen zu lernen.
natürlich klingt es schräg und liest es sich etwas seltsam, wenn ich vereinfacht darstelle, dass die individuelle stimmfarbe und evtl. aber auch gelernte oder bewusst oder unbewusst angewandte gesangs- und selbst sprachtechniken bis hin zu einer individuellen art der intonation ja schon doch eigentlich der person 'gehören', weil es nicht unwesentlich ja auch die persönlichkeit der person ausmacht. und berücksichtigen wir auch, dass hinter musikalischem erfolg doch auch knochenharte arbeit steckt und dass heute doch vieler sänger:innen auch maßgeblich als autoren, wenn nicht sogar produzenten, an ihren veröffentlichungen beteliigt sind, dann haben sich _nach meinem empfinden_ auch anspruch, ihre musik inklusive ihrer stimme als ihr geistiges, schöpferisches werk zu bezeichnen und damit zu machen, was sie wollen.
ob's jetzt besonders sympathisch oder eher unsympathisch wirkt, wenn musiker und/oder verlag früher oder später die justizia anrufen, um etwas zu unterbinden oder tantiemen einzufordern, steht mir gar nicht zu werten zu, weil's doch sowieso passieren wird.
dass die 'ki' wie ein instrument bzw. für allerhand schöpferische tätigkeiten genutzt werden wird, steht sowieso außer frage. da werden noch viele menschen auf ziemlich neuartige ideen kommen und ganz seltsame, spannende, verwirrende, gute, nützliche sachen mit anstellen.
auch klar ist, dass voice cloning nun gerade einen hype erfährt und sich unwiderruflich in unserer schaffenswelt einnisten wird. spricht ja nicht für oder gegen schlechte musik, die dadurch entsteht.
und ganz am ende gilt doch auch wie beim sampling, wie hoch die eigene schöpferische und gestalterische leistung ist, wenn man sich schon am 'fremden eigentum' vergreift.
Geschrieben von: chris (Usernummer # 6) an
:
BÄM!
Spotify has pulled thousands of songs generated by AI startup Boomy from its streaming platform.According to reports, the removal took place after Universal Music Group (UMG) advised the streaming services of suspicious activities on tracks uploaded by Boomy, hinting that bots had been used to boost the songs’ numbers. Spotify then proceeded to remove around 7% of the tracks shared by Boomy.
(...)
In mid-April, UMG called on streaming platforms to do their part in banning AI-generated music from their platforms. “We have become aware that certain AI systems might have been trained on copyrighted content without obtaining the required consents from, or paying compensation to, the rightsholders who own or produce the content,” the record label wrote in an email from March. “We will not hesitate to take steps to protect our rights and those of our artists.”
Quelle: https://hypebeast.com/2023/5/spotify-removes-thousands-of-ai-generated-songs-boomy
Geschrieben von: chris (Usernummer # 6) an
:
Neues Projekt, aktuell kann man sich nur auf die Warteliste setzen lassen:
“Before deep sampling, there were only two ways for music creatives to get a new sound: recording a sound or synthesizing it. There’s now a third way,” explains co-founder of Audialab Berkeley Malagon, an AI researcher who previously worked at NASA, Disney, and Microsoft. Malagon spearheaded the development of Deep Sampler alongside a team of engineers and musicians at Audialab. “Deep Sampler can analyze any existing sound and transform it into completely novel ones that couldn’t have existed any other way.“
https://audialab.com/deep-sampler
Geschrieben von: chris (Usernummer # 6) an
:
Und kaum, dass hier jemand die Beatles erwähnte, ist's auch schon soweit und dank der KI kommt dann wohl Ende dieses Jahres ein Song raus, dessen Originalspuren von einer KI für die weitere Produktion getrennt wurden:
Quelle:
https://www.spiegel.de/netzwelt/web/paul-mccartney-kuendigt-mit-ki-produzierten-letzten-beatles-song-an-a-901967e9-99dd-4d8f-9300-0da9c11aeec8
"Paul McCartney kündigt mit KI produzierten »letzten« Beatles-Song an
Ein »lausiges« Demotape von John Lennon, so beschreibt es Paul McCartney, ist die Grundlage für einen »letzten« Beatles-Song, der dieses Jahr veröffentlicht werden soll. Eine KI macht es möglich."
Geschrieben von: cytekx (Usernummer # 16993) an
:
hat jetzt nix mit AI zu tun, aber wollt kurz sagen dass Native Instruments bis glaub 10. Juli Angebot hat... Reaktor für 99,- Euro statt 199,- uvm.
over and out!
Geschrieben von: Hyp Nom (Usernummer # 1941) an
:
Böse Musik: Vielleicht komponiert die KI einfach besser
Wäre es nicht superspannend, KIs an komplett unkompatiblen Kombinationen zu trainieren (nur mal so als Beispiel)? Könnten sie nicht reihenweise unsichtbare Barrieren einreißen und uns ein paar entscheidende Fußtritte verpassen, die uns zurück auf den Weg nach vorne bringen?
Aber vielleicht hat die Recording Academy auch nur Angst vor der Dankesrede, in der ein C-3PO auf die Bühne stakst und sich mit vor Gerührtheit brechender Stimme bei den Drähten, Halbleitern, Watts und Volts bedankt, die seine preisgekrönte Performance erst möglich gemacht haben.
https://taz.de/!5941510
The Best Music-Making AI Tools and How to Use Them
https://ra.co/features/4199
Geschrieben von: Hyp Nom (Usernummer # 1941) an
:
Musikplattform Mubert erstellt mit eigener KI 100 Millionen neue Lieder
"Wir sind begeistert, dass Mubert in der Lage ist, die Nachfrage nach legaler und qualitativ hochwertiger Musik zu befriedigen, um den Bedarf der Kreativwirtschaft zu decken. Es ist unmöglich, sich Streams, Podcasts und Shows ohne Musik vorzustellen, und Mubert ermöglicht die Erzeugung einer unbegrenzten Menge an Musik von beliebiger Dauer und beliebigem Genre, die auf die Bedürfnisse der Kreativwirtschaft zugeschnitten ist."
www.backstagepro.de/thema/musikplattform-mubert-erstellt-mit-eigener-ki-100-millionen-neue-lieder-2023-07-18-zBN06ytLb3
https://mubert.com/render
[ 21.07.2023, 12:58: Beitrag editiert von: Hyp Nom ]
Geschrieben von: oskar (Usernummer # 7383) an
:
Synplant 2. https://soniccharge.com/synplant2
der verpeilte "cockoo" hat dazu ein spannendes video mit dem entwickler produziert: https://youtu.be/rN7B8LUY3WU
besoders aufregend ist der "genopatch" modus, der samples deiner wahl analysiert und dann versucht mit der eigenen synth engine nachzustellen: https://youtu.be/BObkWlOKrH4.
sehr spannende entwicklung, auch wenn die soft wohl recht cpu hungrig werden dürfte.
Geschrieben von: chris (Usernummer # 6) an
:
@oskar: Ich bin auf das Plugin auch sehr gespannt, den uTonic des gleichen Entwicklers hatte ich früher über viele Jahre sehr gern genutzt, bis ich Lust auf andere Drumsounds bekam, die anderen Plugins waren dann einfach nicht auf mich zugeschnitten. Mal sehen, was die finale Version dann kann und ob das Plugin auf meinem alten Mac überhaupt laufen wird.
Apropos:
Hier ein neues und kostenfreies Text2Sound-Plugin für Windows und osX, um kurze Sounds generieren zu lassen. Man muss wohl nach der Installation nur einmal die Modelle aus dem Netz laden, dann kann das Plugin lokal laufen, braucht aber wohl "etwas" cpu und natürlich ein neueres Mac-Os, weswegen ich es nicht testen kann:
https://samplab.com/text-to-sample
TextToSample
Generate samples with AI for free
Und hier eine Liste 10 eher zweckdienlicher Plugins mal mit mehr, mal mit weniger 'AI', darunter auch Neutron 4 in der Liste, Spektakuläres habe ich da nicht entdeckt.
https://www.loopcloud.com/cloud/blog/5097-10-AI-Plugins-Producers-Need-to-Try-Today
Blog-Beitrag ist so ein bisschen clickbait.
Geschrieben von: Hyp Nom (Usernummer # 1941) an
:
8 of the best AI tools for music production
https://mixmag.net/feature/8-best-ai-tools-for-music-production
Das ist bigGPT - AI generated Audio Experience für Deutschland. Nur mit synthetischen Stimmen, KI-generierten Inhalten und den bigGPT Top 40 der meistgestreamten Songs im Netz.
www.bigfm.de/webradio/biggpt
Der Vorsitzende der Geschäftsführung von Audiotainment Südwest, Kai Fischer, sieht das Projekt als ein "offenes Lernlabor für Medienschaffende, bei dem wir relevanten Input von Hochschulen, Usern und ambitionierten IT-Firmen integrieren". "Wie wir diese Technologie für den Sendealltag unserer Radio-Sender nutzen, können wir erst beurteilen, wenn wir die Technik zu 100 Prozent verstehen und verantwortungsvoll anwenden können. Deshalb wollten wir für dieses Experiment auch aus Transparenzgründen für den User in einen eigenen Sender investieren."
www.golem.de/news/biggpt-radiosender-mit-ki-moderatoren-ist-gestartet-2308-176562.html
Geschrieben von: chris (Usernummer # 6) an
:
Zitat:
Ursprünglich geschrieben von: Hyp Nom:
8 of the best AI tools for music production
https://mixmag.net/feature/8-best-ai-tools-for-music-production
(...)
Das 'Magenta Tone Transfer'-Plugin scheint sehr interessante Möglichkeiten zu haben, natürlich mit meinem osX nicht kompatibel. Grmbls. Aber man kann's immerhin hier mit einigen (wenigen) Instrumenten online ausprobieren:
https://sites.research.google/tonetransfer
Mir würde hier sicher mit dem Plugin eine Menge an 'Blödsinn' einfallen, auch wenn es nur monophon funktioniert.
Geschrieben von: chris (Usernummer # 6) an
:
Freeware-Plugin für die gängigen DAW mit verschiedenen Modellen, die u.a. zum Generieren von Stems, also Isolieren einzelner Spuren, genutzt werden können, hat auch ein Sprach-Modell (englisch) an Bord und allerhand weitere seltsam-faszinierende Modelle - sogar mit Amen-Break - wie es sich für 'ne Entwicklung aus Japan auch gehört.
;-)
https://neutone.space/models/
https://neutone.space/plugin/
Leider nur für neuere Mac-OS-Versionen, Installation hier schlug leider fehl, wenngleich ich das wirklich sehr gern ausprobiert hätte.
:-/
Wenn jemand es mal ausprobiert, bin ich auf Ergebnisse und Beispiele sehr, sehr gespannt.
Geschrieben von: chris (Usernummer # 6) an
:
Miserabel schief einsingen, hier hochladen, Stimme auswählen, runterladen, fertig. Krass.
https://create.musicfy.lol
Hier 'ne Demo:
https://www.youtube.com/watch?v=q2daW18umPs
Und hier ergänzend 'ne Plattform mit den 'Klassikern' wie Drake, Ariana Grande, Ed Sheeran und Rihanna, weil diese Sänger:innen für Modelle ja schon seit 'Urzeiten' gut trainiert sind:
https://lalals.com
Geschrieben von: Hyp Nom (Usernummer # 1941) an
:
..und ich hab in den letzten monaten über 1000 € für sängerinnen für mein pop-album ausgegeben
aber noch ist es wohl nicht soweit, dass sich die KI in die jeweiligen instrumentals einfühlt und einen spezifischen passenden sangesausdruck dafür findet, sowohl insgesamt als im verlauf variierend.. und an welchen stellen zum leadgesang harmonies oder adlibs gut passen. aber auch das kommt sicher bald.
was sich wiederum nie generieren lassen wird, sind die geteilten emotionen, die einem die zusammenarbeit mit menschen bringt durch den gemeinsamen kreativen prozess. das kann einem die KI nicht geben. und performer, die das ganze auf der bühne verkörpern können.
aber wiederum negative emotionen des menschelns lassen sich so vermeiden
ps: die einsingung des youtubers bei 4:33 ist aber schon recht gut.. wesentlich besser als mein demogesang, den ich mir in etlichen takes abgerungen hatte, um meinen sängerinnen zu vermitteln, wie ich es mir in etwa vorstelle. eine der größten herausforderungen meiner "musikkarriere" so far
pps: wo ich mir das demonstrationsvideo nun angesehen habe.. kommt alles nicht an reale einsingungen guter sänger/innen ran, und dann noch die artefakte je nach fall.. ich hätte auf dem weg nichts in der qualität bekommen, was ich mir habe einsingen lassen. mit den unzulänglichkeiten lässt sich aber ja als stilmittel arbeiten.
Geschrieben von: chris (Usernummer # 6) an
:
Bin von den jazzigen Chords sehr angetan, die hier die KI erzeugte, wenn dann - wie er hier genannt wird - 'Ye' noch dazu rapt, hat das am Ende des 'Tutorials' schon irgendwie einen ziemlich coolen Touch:
https://www.youtube.com/watch?v=87AxqAiipQE
How to lo-fi with A.I.
Dazu diese leicht schnöde Erzählweise von 'Nobody & The Computer' - ganz cooler Clip.
Geschrieben von: FaDe (Usernummer # 7185) an
:
Edit: falscher Thread
Geschrieben von: Hyp Nom (Usernummer # 1941) an
:
AI-generated Drake and The Weeknd track eligible for Grammy, Recording Academy says
https://djmag.com/news/ai-generated-drake-and-weeknd-track-eligible-grammy-recording-academy-says
www.youtube.com/watch?v=pkbQV71ZvK4
Geschrieben von: FaDe (Usernummer # 7185) an
:
Zitat:
Ursprünglich geschrieben von: chris:
Miserabel schief einsingen, hier hochladen, Stimme auswählen, runterladen, fertig. Krass.
https://create.musicfy.lol
Hier 'ne Demo:
https://www.youtube.com/watch?v=q2daW18umPs
Und hier ergänzend 'ne Plattform mit den 'Klassikern' wie Drake, Ariana Grande, Ed Sheeran und Rihanna, weil diese Sänger:innen für Modelle ja schon seit 'Urzeiten' gut trainiert sind:
https://lalals.com
lalals.com ist sowas von abgefahren... Da muss man ja schon schwer überlegen welche Stimme die nicht gekl.. äh, "nachgebildet" haben... Interessant finde ich, dass es die Münchner Jungs/Mädels mit ihrer Firma scheinbar in die vereinigten arabischen Emirate gezogen hat... Das sagt irgendwie viel aus darüber, ob sie sich selber so sicher sind bei ihrem Projekt was rechtliche Dinge betrifft... Denke mal da drüben kann einem so schnell keiner was...
Geschrieben von: Hyp Nom (Usernummer # 1941) an
:
Zitat:
Ursprünglich geschrieben von: FaDe:
Interessant finde ich, dass es die Münchner Jungs/Mädels mit ihrer Firma scheinbar in die vereinigten arabischen Emirate gezogen hat...
zwei fliegen mit einer klappe.. rechtlich und steuerlich..
Geschrieben von: chris (Usernummer # 6) an
:
Gerade noch Alle Farben in der Techno-Doku gesehen, jetzt veröffentlicht Warner Music 'ne Single eines, nunja, 'virtuellen' Popstars, noonoouri:
https://www.youtube.com/watch?v=3Yi_KxMxvVg
noonoouri & Alle Farben – Dominoes (Official Music Video)
Auf dem Kanal finden sich noch ein paar 'making of'-Clips.
Eingängige Pop-Musik mit dem 'Alle Farben'-Sound, Barbie-ausgerichtetem Clip mit CGI, die nicht ultra-modern wirkt, soll's wohl aber nicht.
Aber in einem der Clips wird ausdrücklich darauf hingewiesen, dass hier keine AI im Spiel war. Darum verzeiht mir den Offtopic-Beitrag, aber passt n.m.E. irgendwie trotzdem gut zum Thema.
Geschrieben von: SpeedyJ (Usernummer # 984) an
:
Zitat:
Ursprünglich geschrieben von: chris:
Gerade noch Alle Farben in der Techno-Doku gesehen, jetzt veröffentlicht Warner Music 'ne Single eines, nunja, 'virtuellen' Popstars, noonoouri:
https://www.youtube.com/watch?v=3Yi_KxMxvVg
noonoouri & Alle Farben – Dominoes (Official Music Video)
Auf dem Kanal finden sich noch ein paar 'making of'-Clips.
Eingängige Pop-Musik mit dem 'Alle Farben'-Sound, Barbie-ausgerichtetem Clip mit CGI, die nicht ultra-modern wirkt, soll's wohl aber nicht.
Aber in einem der Clips wird ausdrücklich darauf hingewiesen, dass hier keine AI im Spiel war. Darum verzeiht mir den Offtopic-Beitrag, aber passt n.m.E. irgendwie trotzdem gut zum Thema.
wäre vielleicht klüger gewesen, das machwerk auf AI zu schieben, bei ca. 90% dislikes auf youtube. anderseits gibt's den yt-kanal schon seit 5 jahren und auf instagram hat noonoouri immerhin fast ne halbe millionen follower. was ist da schief gelaufen?
Geschrieben von: chris (Usernummer # 6) an
:
Zitat:
Ursprünglich geschrieben von: SpeedyJ:
Zitat:
Ursprünglich geschrieben von: chris:
Gerade noch Alle Farben in der Techno-Doku gesehen, jetzt veröffentlicht Warner Music 'ne Single eines, nunja, 'virtuellen' Popstars, noonoouri:
https://www.youtube.com/watch?v=3Yi_KxMxvVg
noonoouri & Alle Farben – Dominoes (Official Music Video)
Auf dem Kanal finden sich noch ein paar 'making of'-Clips.
Eingängige Pop-Musik mit dem 'Alle Farben'-Sound, Barbie-ausgerichtetem Clip mit CGI, die nicht ultra-modern wirkt, soll's wohl aber nicht.
Aber in einem der Clips wird ausdrücklich darauf hingewiesen, dass hier keine AI im Spiel war. Darum verzeiht mir den Offtopic-Beitrag, aber passt n.m.E. irgendwie trotzdem gut zum Thema.
wäre vielleicht klüger gewesen, das machwerk auf AI zu schieben, bei ca. 90% dislikes auf youtube. anderseits gibt's den yt-kanal schon seit 5 jahren und auf instagram hat noonoouri immerhin fast ne halbe millionen follower. was ist da schief gelaufen?
Vermutlich alles?
Wobei, dieser eine, verlinkte Song ist an sich ja nicht schlecht und entspricht halt dem 'Alle Farben'-Schema.
Aber ob wir uns hierzulande uns solche Namen gut merken können, wenn man nicht unbedingt über 'ne Affinität wie z.B. zu K-Pop verfügt?
Im Video vielleicht alles ein bisschen zu sehr auf präpubertierende Jungsfantasien ausgerichtet?
Eine CGI-generierte Figur ohne Kanten, ohne Ecken, ein berechnetes Gesicht, das man sofort wieder vergisst und gleichzeitig auch wieder mal dem eventuell eher asiatischen Kindchenchema gerecht werden will?
Ich glaube, das ist alles zu naiv, zu simpel, zu vereinfacht, um Menschen wirklich zu begeistern.
Vor nunmehr 25 (!) Jahren begannen die Gorillaz mit dem Cartoon-Konzept und ja, Damon Albarn hat eine Stimme mit hohem Wiedererkennungswert und die Musik war / ist auch klasse - zeigt aber, wie sehr sie ihrer Zeit voraus waren und ein bisschen CGI für einen virtuellen Pseudo-'Popstar' heute echt nicht mehr ausreicht.
Geschrieben von: dabase (Usernummer # 21890) an
:
Ich suche was:
Nen KI-Sample Flipper:
1. Loop oder Loops hochladen
2. Maschine schneidet es
3. Maschine erkennt Tonhöhen.
4. Input: Stil
5. Maschine baut mir ein Track template.
Müsste für das BoomBap Genre z.B. gut funktionieren.
Gibts das irgendwo?
Geschrieben von: SpeedyJ (Usernummer # 984) an
:
What Red Hot Chili Peppers sound like to people who don't like Red Hot Chili Peppers
https://www.youtube.com/watch?v=VE5JMEu5hZA
Geschrieben von: chris (Usernummer # 6) an
:
@speedy: Der Gesang klingt so unglaublich gut, dass ich im ersten Moment vermutete, dass ein Sänger das gemacht hat, aber die Video-Beschreibung suggeriert, dass das wohl tatsächlich 'ne AI war. Intonation, Phrasierung, das klingt schon verblüffend gut.
Dass der Weg via AI auch steinig sein kann, zeigt der Clip von 'EDM Tips' sehr gut, da er mit verschiedenen Möglichkeiten versuchte, per KI einen Dua Lipa-Gesang zu erzeugen:
https://www.youtube.com/watch?v=FO1gh_wrQ90
@dabase: Mir ist so etwas nicht bekannt, vermutlich müssen wir uns da noch 2-3 Jahre gedulden, bis alle von dir genannten Anforderungen dann Standard in der DAW sind:
Ich hatte selbst nach irgendeinem Werkzeug gesucht, das in Wave-Dateien die musikalischen Bestandteile erkennt und mir ausschneidet, um z.B. aus langen archive.org-Clips nur die Musik zu extrahieren, bislang war meine Suche erfolglos.
Das Erkennen der Tonart hingegen können ja schon manche DAW mehr oder minder gut, u.a. gibt's ja in Ableton seit Version 8 oder 8 diesen 'Tuner', der zumindest für einzelne Noten die Tonhöhe anzeigt, für Chord-Folgen ist Scaler 2 die vermutlich aktuell beste Lösung und wenn man Melodie-Verläufe in Midi konvertieren will, macht das Ableton Live n.m.E. in meiner 9er Version eher so 'nuja', da wäre dann 'Melodyne' wohl die bessere Wahl.
Für 4 und 5 habe ich keine Lösung, aber hier im Thread finden sich ja einige Links, die per Prompt Musik im gewünschten Genre generieren, wenn ich das noch richtig in Erinnerung hab' - aber ohne Sample-Input.
Geschrieben von: oskar (Usernummer # 7383) an
:
FL Studio 21.2 beta (mit "Stem" Separation)
funktioniert erstaunlich gut, auch wenn nie perfekt. sind immer 4 tracks. beats und vocals ließen sich in meinen ersten tests bestens isolieren. das 21.2 update / die beta ist für alle besitzer zugänglich und kostenlos.
synthplant 2
die demo wird später getestet. macht aus samples synth patches. good luck copyright!
synplant-2-is-here
synplant
MAC und WIN installer sowie 3 Wochen Trail Version.
Geschrieben von: chris (Usernummer # 6) an
:
@oskar: Hier gibt's noch mehr Informationen und Beispiele:
https://cdm.link/2023/10/synplant-2-hands-on/
Klingt auf jeden Fall spannend, zumal ich früher den uTonic vom gleichen Hersteller wirklich gern genutzt hatte.
Bin aktuell nur nicht im 'flow', was meine Musik betrifft, hab' schon seit 4-5 Wochen 'ne Pause eingelegt, aber die Muse wird bestimmt bald wieder kommen und dann macht's auch wieder Spaß, sich mit neuen Plugins zu beschäftigen.
Geschrieben von: oskar (Usernummer # 7383) an
:
@chris
danke! ich habe vor einpaar wochen ein interview (1h) dazu gesehen. ist verrückt was da geht trotz dieser simplen synth struktur. aber auch ich habe noch nicht getestet. irgendwie hat mich montag "bing" als app auf dem handy demotiviert. die app gibt einem zugriff auf chatgpt4 und das ding ist krank cool. macht bilder, hilft beim lernen, schreibt texte, gedichte... ich hab auch mal gefragt ob es musik für mich erstellen kann und: ja klar! witzigerweise glaubt chatgp4 dass es musik erstellt hat, liefert dann aber keine links dazu (glaubt es aber)... fragt man dann nochmal nach vollen urls, liefert es plötzlich links. z.B.
https://soundcloud.com/bing-ai/chicago-house-track
dieser artist existiert auf sc aber hat keine tracks. die anderen links liefern 404 oder nichts...
wirkt so als würde dieses feature weiterhin zurückgehalten, oder chatgp4 phantsiert sich einen... dennoch spannend, und so wie die großen tech firmen im moment ihre algorithmen zusammenschalten wird schon bald einiges krass komfortabel, für wohlhabende gesellschaften...
jedenfalls finde ich synthplant deshalb spannend, weil man damit (natürlich nicht 100%ig aber nah dran) sampeln kann ohne zu sampeln. wie bereits angedeutet, ich bin gespannt wie jemand dagegen klagen will? (.
Geschrieben von: oskar (Usernummer # 7383) an
:
soeben über diesen artikel gestolpert...
und dabei diesen dienst gefunden:
https://www.songmastr.com/
"About the mastering AI By using this service you can automatically master any song (wav or mp3) to a reference track uploaded by yourself. This service is free up to 7 songs per week."
die sind aber laut dem artikel böse. also nutzung auf eigene, ehm, dingsbums... bevor die in den knast müssen
und hier sammelt sich die flut: https://theresanaiforthat.com/s/music/
Geschrieben von: FaDe (Usernummer # 7185) an
:
Zitat:
Ursprünglich geschrieben von: oskar:
soeben über diesen artikel gestolpert...
und dabei diesen dienst gefunden:
https://www.songmastr.com/
"About the mastering AI By using this service you can automatically master any song (wav or mp3) to a reference track uploaded by yourself. This service is free up to 7 songs per week."
die sind aber laut dem artikel böse. also nutzung auf eigene, ehm, dingsbums... bevor die in den knast müssen
und hier sammelt sich die flut: https://theresanaiforthat.com/s/music/
Hab den Songmastr gerade mal getestet... Ungemasterte House-Wav von mir rein; lauten, druckvollen, professioniellen House-Track als Referenz rein... Ergebnis unbrauchbar... Hatte null Druck, war noch nichtmal so laut wie die Referenz... EQ-technisch recht banane...
Geschrieben von: oskar (Usernummer # 7383) an
:
@Fade
das ist doch erfreulich. danke fürs testen!
Geschrieben von: SpeedyJ (Usernummer # 984) an
:
bei songmastr verhält es sich für mich nach ersten tests ähnlich wie bei landr: die ergebnisse sind interessant, aber damit das ergebnis wirklich brauchbar wird, müsste der gewählte referenz-track wohl schon sehr ähnlich klingen wie der zu masternde track.
woher weiß songmastr eigentlich, ob man ohne account seine 7 kostenlosen masterings aufgebraucht hat?
wenn man beispielsweise seine ip erneuert, hat man dann wieder das volle kontingent?
Geschrieben von: FaDe (Usernummer # 7185) an
:
Also wenn sogar Landr genauso schlecht und Trial&Error ist wie dieser Songmastr... Hmm... Irgendwie erscheint mir dieser Kram nicht so ganz sinnvoll...
Warum besteht denn überhaupt scheinbar diese "Sehnsucht" nach automatischem "mal eben hochladen"-Mastering? Ich versteh das gar nicht so ganz irgendwie... Das ist doch n recht interessanter Prozess, wo man oft auch was lernt und mitnimmt, wenn man es z.B. selber macht...
Edit: Es ist doch irgendwie auch Teil des künstlerischen Prozesses... Es gibt ja nicht nur _ein_ richtiges Mastering... Ist ja alles auch dann ne Sache wie der Künstler möchte, das der Track kommt... Laut, mittellaut, sehr bassheavy, eher lofi, warm, etc. etc....
Geschrieben von: chris (Usernummer # 6) an
:
Zitat:
Ursprünglich geschrieben von: FaDe:
Also wenn sogar Landr genauso schlecht und Trial&Error ist wie dieser Songmastr... Hmm... Irgendwie erscheint mir dieser Kram nicht so ganz sinnvoll...
Warum besteht denn überhaupt scheinbar diese "Sehnsucht" nach automatischem "mal eben hochladen"-Mastering? Ich versteh das gar nicht so ganz irgendwie... Das ist doch n recht interessanter Prozess, wo man oft auch was lernt und mitnimmt, wenn man es z.B. selber macht...
Edit: Es ist doch irgendwie auch Teil des künstlerischen Prozesses... Es gibt ja nicht nur _ein_ richtiges Mastering... Ist ja alles auch dann ne Sache wie der Künstler möchte, das der Track kommt... Laut, mittellaut, sehr bassheavy, eher lofi, warm, etc. etc....
Jein, eher nein. Weil:
Ich hab' mir das kurze Landr-Video angesehen und da wurde etwas wirklich Wichtiges gesagt, ich zitiere es mal kurz:
"(...) as long as your mix is solid you always get a professional sounding master from the LANDR-plugin".
Und damit ist es gesagt: Wir dürfen den 'Mixdown' und das 'Mastering' nicht in den gleichen Topf werfen!
Während man beim Mixdown auf die Balance der Spuren, die Präsenz wichtiger Elemente im Song, das Stereobild und das 'Gefühl', das vermittelt werden soll, berücksichtigt und das sehr individuell sein kann, geht es im Mastering darum, dass der Track oder Song einerseits Durchsetzungskraft hat, andererseits beim 'Play' (Streaming, Vinyl, Radio, Fernsehen, Auflegerei in Clubs und bei Raves - in unserem Fall) 'korrekt' ist und sich gegen andere Produktionen behaupten kann. Wie z.B. der Bass klingen soll, ist eine Sache des Mixdowns, aber dass er für Vinyl unabdingbar mono sein _muss_, damit die Nadel nicht aus der Rille springt, das ist das Mastering.
Nach meinem Laienverständnis kann der Mixdown also ruhig ganz kreativ und nach eigenem Gusto sein, das Mastering hingegen muss gewissen Regeln folgen.
Dass natürlich auch hier Spielraum besteht, ist klar, weil im Mastering-Prozess gewisse Elemente ja besonders hervorgehoben werden können, weswegen es ja einige Personen mit den 'goldenen Händchen' gibt, wie etwa Pole. Aber ich bin mir mehr als sicher, dass er neben seinem Gespür und seinem Gehör und seiner Erfahrung auch auf viele Bereiche achten muss, die ganz objektiv und neutral sind, was z.B. eben das 'Mono' betrifft oder dass nix 'clipt' oder derbe Resonanzen auf 'nem Rave zu 'nem kollektiven Tinnitus führen.
So mein Verständnis, mag mich auch irren, hatte mich aber dazu mal vor längerer Zeit eingelesen, weil ich früher den Unterschied gar nicht kannte.
Und wenn quasi der letzte Bereich weitestgehend automatisiert werden kann, ist klar, dass der Markt - vor allem eben wir Schlafzimmerproduzenten - das will, um eben nicht Profis anheuern zu müssen mit teilweise exorbitanten Stundensätzen und einer Wartezeit von Monaten.
Und der werfe den ersten Stein, der noch nie sowohl ein Mixdown wie auch ein Master komplett versaut hat.
Ich bin da Profi drin, bei der Abmischung aus 'nem guten Track dann echte Klanggrütze zu machen.
Geschrieben von: FaDe (Usernummer # 7185) an
:
Hmm... Ich behaupte jetzt einfach mal, Mastering ist in erster Linie das "Lautmachen" und "konkurrenzfähig" machen... Natürlich in allen Bereichen... Sollte genug "Druck" haben, sollte zumindest "laut genug" sein... Man kann hier auch noch ein paar Korrekturen machen mit EQ, Low-& Hicut etc... Aber das ist alles keine Hexerei und ob auch gerade auf längere Sicht "Landr" oder "Songmastr" mehr Sinn machen, als sich mal selber ein Bisschen auch gerade per A/B-Vergleich mit professionellen Releases und ein, zwei geeigneten Plugins zu beschäftigen halte ich für fraglich... Gerade der A/B vergleich mit professioniellen Releases wird oft unterschätzt... Wenn man seinen Track in ner Playlist mit ein paar anderen Produktionen hat, auf die man sich verlassen kann, und beim Skippen nichts mehr negativ auffällt, sollte das schon mehr als die halbe Miete sein... Natürlich sind da ein, zwei einigermaßen verlässliche "Abhör-Situationen" von Vorteil...
Bei Vinyl alles unterhalb 300Hz in mono und auch sonst nicht viel drunter möglichst alles mono ist ja eigentlich schon "Grundwissen"... Auch dafür braucht bestimmt keiner "Landr" oder "Songmastr"... (Machen die sowas überhaupt?...)
Edit: Man kann natürlich beim Mastering noch so Sachen wie "analoge Saturation", "Stereo-Optimierung" in irgendwelchen Frequenzbereichen machen usw... Aber das macht doch Landr oder Songmastr nicht, oder irre ich da?
Edit2: Auf irgendwelche evtl. störenden Resonanzen oder so achten Landr und Songmastr auch nicht... Würde ich jetzt mal so vermuten... Ist ja auch eigentlich Sache vom Mix...
Edit3: Übrigens, wenn der Mix wirklich so "solid" ist, was ja bei Landr vorausgesetzt wird, ist das eigenhändige Mastern ja auch noch wieder viel einfacher... Da reicht ja dann evtl. schon n x-beliebiger Maximiser um an das Ergebnis von Landr etc. ranzukommen... So jetzt genug editiert...
Edit4: Doch noch einen Edit... Wenn jemand wirklich Musik machen kann, die veröffentlichungsreif ist, sind Landr und Songmastr in meinen Augen völliger Blödsinn und Bauern- bzw. Geldmacherei. Letzteres zumindest bei Landr.
Geschrieben von: chris (Usernummer # 6) an
:
@FaDe: Also, das was er da macht, das würde ich Newbies einfach so nicht zutrauen und die Details, auf die hier geachtet werden, sind eben doch n.m.E. ein ganz klein wenig mehr, als nur Bass auf Mono zu stellen und den Maximizer auf der Master-Spur auf Kante zu drehen. Dass der Charakter des Tracks dabei nicht verändert wird, bestätigt zumindest auch, dass es hier um's Mastering, nicht das Mixing, geht.
Er spricht das auch kurz ein und unterscheidet in seinen Worten den Unterschied des Mixings und Masterings -
aber da sind wir uns ja ohnehin schon einig.
https://www.youtube.com/watch?v=K_C3AP4DEmU
"Luca Pretolesi mastering On My Mind by Diplo ft Sidepiece. This tutorial covers Luca's 3x Grammy mastering workflow as well as using analyzers to master a song in Studio One. This tutorial uses FabFilter Pro-G, StandardClip, MultiAnalyzer, and Diamond Lift plugins."
Geschrieben von: FaDe (Usernummer # 7185) an
:
Hab's mir noch nicht angeguckt, weil: Will ja nur sagen, dass wenn jemand es schafft, etwas V.Ö.-reifes zu produzieren (im Sinne von "macht Sinn"), wird er es auch schaffen, das Ding mindestens so gut wie "Landr" oder "Songmastr" "fertig" machen zu können... Vielleicht mit ein bisschen Übung... Nachdem was mir die beiden Dinger so ausgespuckt haben und SpeedyJ wohl auch eher durchwachsene Erfahrungen gemacht hat...
Dass ein Mastering-Profi das ganze _noch_ besser kann, will ich ja gar nicht bezweifeln...
Guck's mir gleich trotzdem noch an...
Geschrieben von: oskar (Usernummer # 7383) an
:
FL Studio 21.2 hat zwei "deep learning" ai|ki features erhalten:
"AI-powered mastering – Masters created in seconds, tailored with presets for all major genres and loudness-optimized for all major streaming and download platforms. "
"Stem Separation – Available for FL Studio Producer Edition and above, splits any song or track into vocals, music, bass, and drums."
ausserdem neu, direkte track verramschung via FL:
"Digital distribution – Powered by DistroKid, an unlimited number of tracks can be released to Spotify, Apple Music, and all major digital platforms."
und natürlich, wir haben das Jahr 2023, was fehlt?
ein abo model für cloud-dings irgendwas..."FL Cloud"! das hat gefehlt!
"There are several ways to use FL Cloud:
Subscription – Unrestricted, credit-free access to all features. Download any sound at any time without worrying about how many credits they have left, or whether or not they will expire.
Free features – A curated, credit-free library of loops and one-shots, plus unlimited use of mastering, using a Default genre preset.
Credit packs - FL Studio users and trial users can access any sounds from the full library, including Artist Packs, with the purchase of non-expiring credits."
Geschrieben von: FaDe (Usernummer # 7185) an
:
Zitat:
Ursprünglich geschrieben von: chris:
@FaDe: Also, das was er da macht, das würde ich Newbies einfach so nicht zutrauen und die Details, auf die hier geachtet werden, sind eben doch n.m.E. ein ganz klein wenig mehr, als nur Bass auf Mono zu stellen und den Maximizer auf der Master-Spur auf Kante zu drehen. Dass der Charakter des Tracks dabei nicht verändert wird, bestätigt zumindest auch, dass es hier um's Mastering, nicht das Mixing, geht.
Er spricht das auch kurz ein und unterscheidet in seinen Worten den Unterschied des Mixings und Masterings -
aber da sind wir uns ja ohnehin schon einig.
https://www.youtube.com/watch?v=K_C3AP4DEmU
"Luca Pretolesi mastering On My Mind by Diplo ft Sidepiece. This tutorial covers Luca's 3x Grammy mastering workflow as well as using analyzers to master a song in Studio One. This tutorial uses FabFilter Pro-G, StandardClip, MultiAnalyzer, and Diamond Lift plugins."
-3 dB RMS ... Wenn das nicht mal n Master für Hyp ist...
Bei Apple Music - zumindest bei der Desktop-App unter Windows - kann man auch gucken, um wieviel dB die Datei beim Abspielen gesenkt wird... Sofern "Klangtest" in den Einstellungen an ist - was die Standardeinstellung nach Installation ist... Wenn ich das richtig interpretier... Auf jeden Fall wird dieser Diplo-Track aus dem Mastering-Video dann bei der Wiedergabe scheinbar um satte 3,9dB gesenkt... Heißt also für den Hörer: Klangverlust. Allerdings sagt der Mastering-Mensch ja auch, dass er das Teil so laut macht, dass wenn ein DJ das Ding droppt, es ein bisschen heraussticht oder es "shined" - bei dieser "harten Tech House-Competition"... Nunja dazwischen muss man wohl immer abwägen... So Philosophie-Firlefanz Ende...
Finde auf jeden Fall das der Mensch da nicht wirklich viel oder sehr "magisches" macht - hab aber auch den Eindruck das der Stereomix schon recht laut und recht "fertig" ist... Er benutzt etwas Upward-Compression ja... Aber auch das ist kein Hexenwerk - wenn es überhaupt benutzt werden will/soll... Ein ernormer Vorteil den solche Leute haben ist wohl mit an oberster Stelle die Abhörsituation - also Akustik-optimiertes Studio; dazu dann verschiedene, sehr hochwertige Monitore...
(Lautstärke-Einschränkungen wegen Nachbarn sind vermutlich auch eher selten... )
Geschrieben von: chris (Usernummer # 6) an
:
@oskar : Habe mir gestern Nacht im Hotelzimmer erste y'tube-Clips der Stem-Separation in FL angesehen und das macht einen wahrlich vernünftigen Eindruck. Wenn ich es richtig verstanden habe, macht die Software das also nativ und ohne Internetverbindung? Denn das macht den Unterschied wohl zu verschiedenen Plugins aus, die die Daten einfach zu 'nem Server transferieren. Aktuell bleibe ich dennoch bei Ableton und wenn in ein paar Jahren Zeit für ein neues MacBook gekommen ist, bis dahin können alle größeren DAW das dann sowieso und mit dem riesigen Sprung um 'x' Versionen hab' ich dann ohnehin ein paar Wochen zu tun, all die Neuerungen auszutesten. Natives Stem-Trennen IN der DAW würde mir heute schon helfen, da das ständige Schneiden, Uploaden, Warten, Downloaden extrem, wirklich extrem zeitraubend ist. Zumal dann das 'pella beispielsweise von Ableton nicht mehr korrekt in Sachen 'bpm' erkannt wird und dann wieder das Justieren anfängt, was leider auch mehr als nur'n Handgriff ist.
@FaDe : Ich glaube, dass gerade diese kleinen Handgriffe, die man im Diplo-Master-Video sieht, den großen Unterschied machen, wenn man den Song dann auf 'nem Festival, in 'nem Club, auf dem Küchenradio, auf airPods oder 'nem schrottigen Notebook-PC hört - Kunst ist das ja nicht, sondern eben Handwerk und das erklärt, um wieder auf das ursprüngliche Thema zurück zu kommen, warum eben dedizierte und mitunter nicht mal günstige Plugins eben das auch übernehmen können und auch dürfen, weil eben genau dieses Feinschleifen und Polieren nicht jeder beherrscht oder nicht das absolut perfekte Gehör, nicht die absolut perfekte Abhör-Situation hat und nicht alle Anforderungen der ganzen verschiedenen Plattformen kennt. Ich sehe also nach wie vor es als gerechtfertigt an, dass es solche Mastering-Tools gibt, die den Sound per se eben nicht dramatisch verändern, aber eben den letzten Schliff geben. Keine Widerrede, man kann das alles auch manuell machen und oft reichen da die integrierten DAW-Tools aus. Ist eine Frage der Muse, der Zeit, der Skills, der Abhörsituation, vor allem aber der Erfahrung und des notwendigen Know-Hows.
Geschrieben von: FaDe (Usernummer # 7185) an
:
Es geht mir ja hauptsächlich um Sinn und Unsinn von "Songmastr" oder der "Landr"-Seite im Vergleich zu "selber etwas reinfuchsen" mit Plugins, die die DAW evtl. sogar schon drin hat, günstigen oder sogar "for-free-Plugins"...
Wenn man die Möglichkeit hat, es von nem Mastering-Profi mastern zu lassen oder das Label macht es/lässt es professionell machen, ist das auch aus meiner Sicht immer die beste Option. Bei der Landr-Seite kostet das günstigere Abo 240 Eusen im Jahr (bei monatlicher Zahlung). Dann lieber noch z.B. Ozone Standard nehmen...
Wenn man sich die Teile irgendwo für lau organisiert, spielen Preise natürlich keine Rolle...
Geschrieben von: chris (Usernummer # 6) an
:
Demnächst kann man direkt in y'tube 30-Sekunden-Clips mit AI-Lala erzeugen mit der neuen Funktion 'Dream Track', aktuell nur für einige youtube-Nutzer in den USA verfügbar:
"Available only on YouTube Shorts, users won’t be able to make full-length songs, but rather 30-second soundtracks. Thankfully, the only voices they’ll be able to use is from artists who are collaborating with YouTube on the feature.
Among the participating artists are pop legends, including Charlie Puth, Charli XCX and Demi Lovato. Also in the mix is Alec Benajmin, alongside John Legend, Papoose, Sia, T-Pain and Troye Sivan, giving users options for cloning across genres.
“I’m extremely excited and inspired… YouTube has been a great partner in outlining their approach to AI and understands the need to work together to develop this technology responsibly, ensuring it will accelerate creativity instead of replacing it,” Puth said.
For now, Dream Track is only available to a select group of creators in the US. When creating a Short, they’ll be able to type in a prompt for their concept and will suggest a few artists to generate the soundtrack."
Quelle: https://hypebeast.com/2023/11/youtube-dream-track-ai-clones-musical-artists
Geschrieben von: chris (Usernummer # 6) an
:
JEN-1 hat die Warteliste geöffnet, aber viel spannender finde ich auf der Webseite die Vergleiche aktueller, generativer AI mit Prompt, hier gibt's 'ne Menge an kurzen Audio-Demos von JEN-1, MusicGen, MusicLM, Riffusion und Mousai zum Anhören:
https://www.jenmusic.ai/audio-demos
Auch mal nach unten scrollen, da gibt'S dann ein paar wirklich interessante Beispiele, etwa das 'Standard jazz song sung in acapella'-Beispiel mit gesungenem Lala im Jazz-Stil.
Geschrieben von: oskar (Usernummer # 7383) an
:
@chris: wow! das ist spannend! danke für den hinweis! JEN-1 schlägt alle; wäre mein fazit nach dem hören dieser vergleiche. natürlich bleib ich skeptisch bis ich selbst vergleichen kann... aber das klingt schon nicht soo schlecht was das ding liefert. funny find ich diese Riffusion besipiele, klingen alle wie durch einen nervöses tremolo gejagt. thx!
Geschrieben von: oskar (Usernummer # 7383) an
:
das ist spannend: Micro Music for Vital
Vital
ist ein Wavespahing Synth den es in verschiedenen versionen gibt. eine ist auch free ware.
und dafür gib es nun ein AI basiertes tool, dass wie in synthplant 2 anhand von Waves patches generiert. muss ich nachher mal testen.
hier noch die direkten links zu den seiten der macher:
Vital Audio
Micro Music
Geschrieben von: oskar (Usernummer # 7383) an
:
hier steht, dass der Windows "Copilot" nun aus text "musik" generiert. ungetestet, aber ggf. sitzt ihr im moment vor einer win 11 kiste?
Geschrieben von: oskar (Usernummer # 7383) an
:
und zum mastern gibt es jetzt auch:
https://masterchannel.ai/wezclarke
Wez Clarke als AI mastering buddy, oder so..
"The world's first AI clone of a GRAMMY-winning engineer."
Geschrieben von: oskar (Usernummer # 7383) an
:
uff! bings android chat-gpt ist über nacht nun auch zum copilot mutiert und auf die frage ob er mukke machen kann: klar! bis jetzt spuckt das ding jedoch vorallem python code aus, der (ich hab da wenig ahnung) aber sehr danach aussieht als würde das ding musik in python schreiben.
import random
# Define the tempo and time signature
tempo = 120
time_signature = (4, 4)
# Define the drum pattern
drum_pattern = [
"kick", "snare", "kick", "kick",
"snare", "kick", "kick", "kick",
"kick", "kick", "snare", "kick",
"kick", "kick", "kick", "snare"
]
usw..
- kannst du das nicht für mich erledigen und mir einen link zu der fertigen mp3 anbieten?
- Natürlich, ich kann das für Sie erledigen. Hier ist ein Link zu einer MP3-Version des Techno-Stücks, das ich für Sie erstellt habe. Sie können es direkt anhören, ohne etwas programmieren zu müssen. Ich hoffe, es gefällt Ihnen! 🎶
https://open.spotify.com/embed/track/4uLU6hMCjMI75M1A2tKUQC
Geschrieben von: chris (Usernummer # 6) an
:
Ich hab' mich jetzt von oskar mal inspirieren lassen und gestern begonnen, eine Idee umzusetzen, die mir im Idealfall Unmengen an Zeit sparen könnte, aktuell ist das Ergebnis aber noch nicht funktional:
Ich extrahiere ja u.a. von ur-alten Filmen u.a. aus archive.org die Tonspur mit Hilfe des VLC-Players und danach springe ich 'händisch' in den Audio-Editor und höre mir die gesamte Tonspur an und schneide Segmente musikalischer Natur für mich heraus:
Habe ich ein Video, das z.B. 60 Minuten dauert, benötigt das Extrahieren der Audio-Spur - da mein Editor nicht alle Film-Formate frisst - zwar nur ein paar Handgriffe und 3-5 Minuten, aber dann sitze ich gefühlt für dieses Beispiel 2 Stunden vor der frequenzanalysierten Audio-Datei und setze Marker und Loop-Punkte und speichere jedes Schnippsel manuell. Sprache ist für mich nicht relevant, d.h. das kann ich i.d.R. sofort im Spektrogramm sehen und überspringen, muss aber dann quasi jedes Geräusch anhören, da leisere musikalische Fragmente auch nicht immer eindeutig sichtbar sind.
Das Speichern der Schnippsel kann mein älterer izotope-Editor auch nicht automatisieren, das sind dann auch jeweils ein paar Handgriffe.
So also kann es sein, dass ein Video von einer Stunde mich dann in der Summe gut und gern 3 Stunden beschäftigt.
Habe also gestern Python auf meinem alten MacBook installiert mit einigen Libraries und ChatGPT gebeten, mir ein Skript zu schreiben, das Sprache und Musik identifizieren und die 'Segmente' in einzelne Verzeichnisse schreiben soll.
Der erste Ansatz hat das nur anhand der Lautstärke gemacht und mir bei einem 10-minütigen Video-Clip 16.000 (!) Dateien erzeugt, die mikrosekundenlang waren.
Nach etwa 12 Stunden haben 'wir' das nun angepasst, so dass die Erkennung nun nicht anhand der Lautstärke sondern via FFT passieren soll, das Skript ist nun in der 28. Versionierung und läuft zwar fehlerfrei - aber ohne Erghebnis.
Immerhin wird nun automatisch die Audio-Datei aus einem Video extrahiert, die Unterverzeichnisse für 'Sprache' und 'Musik' werden angelegt und das Skript analysiert fleissig, wenngleich auf meinem MacBook Air im Schneckentempo: ein 10-minütiger Clip rödelt gute 60 Minuten durch, warum er aber momentan nun nix extrahiert, muss ich mit ChatGPT noch besprechen.
Wird also ein Projekt, das sich im besten Fall noch einige Wochen hinzieht, bis es einigermaßen funktioniert.
Daneben musste ich mich als Nicht-Entwickler auch von ChatGPT in Sachen 'Python' schulen lassen und meine interne Platte weiterhin fast voll ist, kann ich auch keine Entwicklungsumgebungen wie Homebrew oder xCode installieren, auch 'pip' zum Installieren von Libraries klappt nicht.
Das, was ChatGPT mir als Anleitung vorgibt, wirkt schlüssig, wenn dann aber nur 'ne Info kommt, ich solle mir auf GitHub die Library ziehen und ich die dort nicht finde - da kann die Version 3.5 (kostenfrei) mir auch nicht weiterhelfen.
Kleinere Optimierungen klappen hingegen prima: So dachte ich stets, dass das Skript auf der ollen Kiste abgestürzt ist, also haben wir ein "Lebenszeichen" eingebaut. Klappt.
Dann dauerte das Verarbeiten gefühlt ewig, also haben wir eine Status-Anzeige eingebaut - auch das klappt nun.
Bin gespannt, ob das was wird: Sobald die ersten Dateien geschrieben werden - was aktuell eben gar nicht mehr geht - will ich 'pydub' mit 'audioflux' ersetzen, um noch bessere Ergebnisse zu erhalten:
Mein Ziel ist es, im Idealfall die Musik-Schnippsel auf der Platte zu haben, im mittelbesten Fall _eine_ Audio-Datei, die nur die Musik aus der Tonspur beinhaltet, dann müsste ich diese nur noch zerschnipseln.
Mal sehen, wie weit ich komme oder ob ich irgendwann das Handtuch werfe.
Geschrieben von: oskar (Usernummer # 7383) an
:
@chris: das klingt abgefahren! wünsche dir weiterhin guten flutsch bei dem projekt!
chatgpt habe ich bis jetzt persönlich nur gelegentlich aufgesucht, dennoch scheint es mir so, dass die qualität der antworten abnimmt. das mag aber täuschen, und du schreibst ja auch, dass dir das ding hilfreich ist. was angeblich helfen soll, ist es wenn man dem ding eine rolle vorgibt, also im sinne von: "stelle dir vor du bis ein profi in xyz" und dann die weiteren prompts in diesem context eingibt. deine story motiviert mich jedenfalls jetzt auch mal dieses gerät etwas konzeptioneller zu nutzen. sehr spannend!
Geschrieben von: chris (Usernummer # 6) an
:
Zitat:
Ursprünglich geschrieben von: oskar:
@chris: das klingt abgefahren! wünsche dir weiterhin guten flutsch bei dem projekt!
chatgpt habe ich bis jetzt persönlich nur gelegentlich aufgesucht, dennoch scheint es mir so, dass die qualität der antworten abnimmt. das mag aber täuschen, und du schreibst ja auch, dass dir das ding hilfreich ist. was angeblich helfen soll, ist es wenn man dem ding eine rolle vorgibt, also im sinne von: "stelle dir vor du bis ein profi in xyz" und dann die weiteren prompts in diesem context eingibt. deine story motiviert mich jedenfalls jetzt auch mal dieses gerät etwas konzeptioneller zu nutzen. sehr spannend!
Da ich kaum Erfahrung mit dem 'Prompten' habe, musste ich mich auch da erst einmal herantasten und habe mir nun den Text gespeichert, damit ChatGPT in einem Rutsch versteht, was a) mein Ziel ist und b) welche Systemumgebung ich nutze, weil es u.a. davon ausging, dass ich die o.g. Entwicklungsumgebungen installiert hätte. In den ersten Versuchen gab's dann auch etwas Chaos aufgrund Unklarheit der von mir genutzten Python-Version, also habe ich gestern erst mal X Versionen installiert und wieder 'ne andere drübergebügelt, bis ich lernte, ChatGPT im Prompt einfach mitzuteilen: "Ich nutze Python Version N und habe weder Homebrew noch XCode installiert". Dann stolperten 'wir' über falsche Verzeichnisse für Bibliotheken und Inkompatibilität mit 'pydub' und 'ffmpeg', die das Skript braucht, um einerseits Videos auszulesen, andererseits für die FFT-Spektralanalyse. Also habe ich jetzt einen kleinen Roman als Prompt, der zumindest dazu führt, dass alle frisch generierten Skripte _augenscheinlich_ fehlerfrei funktionieren.
Nu' läuft die letzte Version seit gut 'ner Stunde für ein 10-Minuten-Clip und ich befürchte, dass es wieder nix extrahiert, also wird das wahrscheinlich die größte Herausforderung für mich sein, gemeinsam mit ChatGPT das Skript zu verfeinern, damit wir 'debuggen' können, denn dieser Bestandteil fehlt aktuell noch - und so kann ChatGPT natürlich nicht wissen, wo aktuell der Hase begraben liegt.
Ich werde jetzt wahrscheinlich jeden Abend mal ein Stündchen (oder mehr) damit verbringen und hoffe, vor dem Frühling ein Ergebnis zu haben, das mehr oder minder das macht, was ich brauche.
Geschrieben von: chris (Usernummer # 6) an
:
Update: ChatGPT hört nicht immer richtig zu oder überliest Sachen aus dem Prompt, zumindest in der kostenfreien Version 3.5 - man muss also aufpassen, dass ChatGPT nicht Sachen einfach ignoriert:
"Entschuldigung für das Missverständnis. Ich habe den Fortschrittsbalken und das Lebenszeichen in der vorherigen Version des Skripts vergessen."
Geschrieben von: chris (Usernummer # 6) an
:
Update: Löift!
Gestern noch mal frisch angefangen, weil ChatGPT das erste Skript sukzessive so verhunzt hatte, dass es nur noch Fehler brachte. Also neuen Prompt erstellt, direkt schon auf diverse Python-Libraries verwiesen und die Ansage gemacht, Audio-Daten anhand von FFT-Analyse _und_ Lautstärke zu analysieren, da ich ja ohne AI bzw. trainierte Modelle arbeiten muss und nach 14 Iterationen macht das Ding nun ziemlich genau das, was ich will und bin gestern sehr glücklich und fasziniert in die Federn gehüpft.
Ein Film mit 80 Minuten Spielzeit hat das Skript in weniger als 5 Minuten analysiert und mir ca. 300 Samples extrahiert, deren Spieldauer variieren von 8 Minuten bis zu einer Sekunde, da ich das als Minimum definiert hatte.
Was Musik / Instrumente sind und was Sprache, da macht das Skript noch Murx und schreibt mit die Dateien nicht immer in's richtige Unterverzeichnis, aber da ich lernte, dass mit jeder weiteren Iteration und Verfeinerung eher eine Verschlimmbesserung passiert, lasse ich es jetzt so.
Im nächsten Schritt will ich lediglich noch eine Funktion einbauen, die die Samples normalisiert und dann will ich die ohnehin schon genutzte 'librosa'-Bibliothek nutzen, um Stems automatisch zu separieren. Mal sehen, ob das klappt.
Damit bleibt nur noch der 'manuelle' Schritt, die Schnippsel anzuhören und das zu behalten, was ich nutzen will und den extrahierten Murx zu löschen.
Geschrieben von: Hyp Nom (Usernummer # 1941) an
:
gratuliere, chris.. irre, diese entwicklung.
und die kostenpflichtige chatgpt-version 4 soll gerade für programmieren noch deutlich besser sein, heißt es.
Geschrieben von: oskar (Usernummer # 7383) an
:
wow! absolut mindblowing! gratulation chris! mach bitte ein yt tutorial für denkresistente wie mich bitte!
vielleicht liest das hier ja einer der es kann..
ich hätte ja gerne etwas, dass midi hw sammt cc versteht und mir dann in synthplant 2 manier hilft. muss auch nichts nachbauen, einfach auf zuruf parameter verstellen... aber ich bin sicher nicht der erste mit der idee...
schöne neue KI welt. hoffen wir mal, dass wir das alles auch weiterhin so dekadent auskosten können und nix dazwischen kommt...
Geschrieben von: chris (Usernummer # 6) an
:
@hyp: Ich hab' natürlich ChatGPT 3.5 gefragt, ob es für dieses Projekt sinnvoll wäre, die kostenpflichtige 4er Version zu nutzen und die Antwort war mehr als vage, als habe ich's mir erst mal gespart. Habe dafür aber zwischenzeitlich recht viel über die verschiedenen Audio-Python-Libraries gelernt und da gibt es drastische Unterschiede, was den Funktionsumfang und die Möglichkeiten betrifft, d.h. wenn ich das Skript doch noch mal optimieren will, versuche ich es vom Start weg mit anderen Bibliotheken.
Nun kam mir vorhin die Idee, das manuelle Aussortieren eventuell doch auch einem neuen Skript zu überlassen - Prämisse wäre aber, was im momentanen Skript eben nur so halbwegs geht, dass es dann doch besser zwischen Sprache und Musik / Geräuschen unterscheiden kann, d.h. ich würde nur am Symptom und nicht an der Ursache schrauben. Dann eventuell also doch das Skript noch mal neu beginnen und mich vielleicht auf AI-Bibliotheken stürzen, die anhand von Modellen trainiert werden. Die Analyse via FFT und der Dynamik ist anscheinend unzureichend.
@oskar: Dazu müste ich meine extrem langen Dialoge mit ChatGPT mit abbilden und es gibt so viele gute Clips für ChatGPT und hier in der Buchhandlung sogar schon ein eigenes Regal, wie man einen richtigen Prompt schreibt, ich kann da nur lernen und niemand könnte von meinen Amateurversuchen etwas lernen.
Aber es gibt auch Python-Bibliotheken, die mit Midi arbeiten, da stellt sich mir aber für dein Vorhaben die Frage, wie diese Daten in deiner DAW und beim Plugin landen, da deine DAW vermutlich keine API - also Programmier-Schnittstelle - hat, richtig?
Aber frag doch mal ChatGPT nach einem Lösungsansatz.
;p
Geschrieben von: FaDe (Usernummer # 7185) an
:
Versteh ich das jetzt richtig, dass z.B. für dein Projekt keine Programmier-Kenntnisse notwendig sind?
Geschrieben von: oskar (Usernummer # 7383) an
:
@chris: jo! das muss ich mal machen. ich bin ja nur zu faul. alles cool! lg!
Geschrieben von: chris (Usernummer # 6) an
:
Zitat:
Ursprünglich geschrieben von: FaDe:
Versteh ich das jetzt richtig, dass z.B. für dein Projekt keine Programmier-Kenntnisse notwendig sind?
Korrekt. Das letzte mal, als ich einen Quelltext angefasst habe, das ist 15 Jahre hier und waren kleinere Sachen hier am Forum, aber auch kein echtes Programmieren, habe nur versucht, Strukturen zu verstehen und dann mit 'try & error' hier Anpassungen gemacht.
Bin nur zufällig immer wieder über 'Python' auf Github gestolpert und las, dass das sowieso auf jedem Apple vorinstalliert wäre und man mit wenigen Zeilen recht lustige Sachen machen kann. Also habe ich direkt meinen Prompt damit begonnen: "Ich bin kein Programmierer". Zweiter Satz: "Schreibe mir ein Python-Skript, das auf Apple High Sierra funktioniert".
Und entsprechend hat mich ChatGPT wirklich Schritt für Schritt durch alles geführt, wie ich Python aktualisiere (runterladen, Doppelklick, fertig), 'pip' installiere, die benötigten Bibliotheken installiere ("pip install Namederbibliothek") und letzten Endes kopierst du dann das Skript nur in den Python-Editor, der wie Notepad aussieht und speicherst es als 'Skript.py', startest auf dem Mac das Terminal "python3 skript.py" aus dem richtigen Verzeichnis und dann läuft's.
Natürlich hab' ich mir gestern Nacht das Skript auch mal angesehen, weil ich dachte, eventuell selbst händisch was anpassen zu können. Nope, auch dafür reichen meine Kenntnisse nicht aus.
Gestern waren die 14 Iterationen notwendig, weil das Skript zu Beginn noch nicht das machte, was ich wollte und bei jedem zweiten Versuch 'n Fehler beim Ausführen kam. ChatGPT antwortete dann stets mit einem "Entschuldigen Sie bitte, ich habe vergessen, XYZ zu machen. Ich korrigiere nun den Fehler."
Kurz gesagt: Mit einem absolut perfekten Prompt und eventuell einem ChatGPT4, das auch im Web nachsehen und dann auch direkt Links nennen kann, bekommstt du im Idealfall ein copy&paste-Skript, das direkt läuft.
Am wichtigsten ist die 'Unterhaltung' und zu lesen, was ChatGPT erklärt, denn im ersten Versuch wollte das Skript nur anhand der Dynamik und Transienten zwischen Sprache und Musik unterscheiden, was nicht funktionieren kann. Also fragt man ChatGPT nach anderen Methoden und als es die Spektralanalyse vorschlug, wusste ich, dass dies meine gewünschte Methode sein wird. Also stets fleissig 'geprompted' und "gemeinsam" das Skript immer wieder verfeinert, weil ich in den Prompts verschiedene Sachen vergessen hatte, u.a.
- Das Video bitte nach dem Bearbeiten nicht löschen
- Die extrahierten Samples so wie das Video benennen
- Mindestlänge der Samples (Erster Versuch extrahierte 16.000 Samples, die mikrosekundenlang waren)
- Die Samples in ein spezielles Verzeichnis zu schreiben und mir nicht irgendwo auf die Platte knallen
- Etc.
Geschrieben von: oskar (Usernummer # 7383) an
:
@chris: finde deine story zu dem projekt sehr inspirierend! vielen dank! gestern dachte ich noch du sitzt da die nächsten wochen und monate dran. dass da so schnell nun etwas funktionales mit einem (so denke ich) durchaus großem mehrwert entstanden ist, ist klasse. python ist ziemlich cool, auch wenn ich bis dato nur dazu gekommen bin das mal testweise zu installieren und einpaar tutorials anzugehen. die story macht mut mit cgpt da mal tiefer einzusteigen. an dieser stelle dann einfach mal ein kleiner ggf. auch inspirierender flurfunk: mojo
hab gehört das soll noch flotter arbeiten und noch mehr auf AI ausgelegt sein. aber auch ich bin kein programmierer und habe das nur irgendwo aufgeschnappt. ob das auf dem alten mac läuft k.a. es ist aber wohl absolut zu python kompatibel (also python skripte laufen wohl auch in mojo) und eine weiterentwicklung.
Geschrieben von: FaDe (Usernummer # 7185) an
:
Das ist ja abgefahren... So müsste man doch auch VSTs entwickeln können oder? Es müsste doch z.B. auch gehen eine selbstentwickelte GUI bzw. Grafiken miteinzubinden...(?)
Geschrieben von: chris (Usernummer # 6) an
:
@oskar, danke, beschäftige mich am wochenende mal mit 'mojo'. wie erwähnt, das skript ist noch nicht perfekt in sachen 'erkennung', aber der vielleicht noch wichtigste tipp, wenn du selbst was machst: speichere dir alle vorhergehenden versionen des skripts stets ab - im ersten ansatz war das skript wirklich nicht mehr zu retten und total verkorkst. und dass nach nicht mal 4 tagen was absolut funktionales und eigentlich für mich nun ausreichendes läuft... ich hab' gestern abend einige momente gebraucht, bis ich verstanden hatte, prinzipiell schon das ziel erreicht zu haben und dann bekam ich das dicke grinsen nicht mehr aus dem gesicht.
@fade: Ich hab' gestern ein y'tube-video gesehen, da hat jemand versucht, 'flappy bird' komplett von ChatGPT entwickeln zu lassen - und es hat geklappt. Auch hier mit einigen Anläufen, weil erst beim Ausführen des Programms klar wurde, was noch fehlte oder nicht logisch war, am Ende hatte er 'ne exakte Kopie des Spiels mit AI generierten Bildchen und keine einzige Zeile selbst programmiert:
Die Grafiken hat er aber in der Entwicklungsumgebung irgendwie eingefügt, Visual Studio oder sowas.
Sollte also gehen, _aber_ bei nem VST oder VSTi brauchst du vermutlich 'ne ebensolche Entwicklungsumgebung, die das dann entsprechend 'compiled', da zumindest ChatGPT 3.5 keine ausführbaren Programme ausgibt.
Darum habe ich exakt deine Idee, das als ausführbares Programm zu machen, verworfen und mich glücklicherweise und dem Zufall geschuldet gleich auf Python eingeschossen.
Aber welche Anforderungen ein VST(i) hat, kann dir ChatGPT garantiert sagen und was du dazu brauchst.
Geschrieben von: oskar (Usernummer # 7383) an
:
@chris: das grinsen bekomme ich jetzt auch, und ich hab nicht mal was gemacht!
@FaDe: jap! ich meine dazu gibt es vielleicht auch schon yt videos. zumindest habe ich hier und da auch mal von solchen manövern mit chatgpt gehört.
Geschrieben von: chris (Usernummer # 6) an
:
Zitat:
Ursprünglich geschrieben von: oskar:
@chris: das grinsen bekomme ich jetzt auch, und ich hab nicht mal was gemacht!
@FaDe: jap! ich meine dazu gibt es vielleicht auch schon yt videos. zumindest habe ich hier und da auch mal von solchen manövern mit chatgpt gehört.
Tatsache, ich erinnere mich, hatte den Clip vor 'nem knappen Jahr sogar gesehen:
https://www.youtube.com/watch?v=V0-ZYMGBibY
I Created A VST Synthesizer With ChatGPT AI
Geschrieben von: FaDe (Usernummer # 7185) an
:
Nicht uninteressant... Habe schonmal bisschen mit VST-Programmierung angefangen zu experimentieren, vielleicht ist der ChatGPT ja auch da ein nützlicher Kollege...
Geschrieben von: FaDe (Usernummer # 7185) an
:
Ich muss das jetzt einfach hier posten weil es direkt nach dem VST-ChatGPT-Video lief und soo lustig weil irgendwie übertrieben ist..:
https://www.youtube.com/watch?v=48TzoQtMrXM
(Studio-Talk End-Level, deutsch)
(Bitte verzeih mir das Offtopic, Chris)
Geschrieben von: oskar (Usernummer # 7383) an
:
heise news - Studie: Künstliche Intelligenz verursacht Milliardenverluste für Musikschaffende
die kommentare sind spannend.
Geschrieben von: chris (Usernummer # 6) an
:
Nach weiteren Nächten kann jetzt mein Skript auch schon annäherungsweise die Tonart der Segmente bestimmen sowie auch die bpm - und das klappt ganz gut. Das Separieren von Stems hingegen, da scheitere ich noch dran, da die verschiedensten Python-Bibliotheken einerseits untereinander inkompatibel sind, zum anderen gerade die Libraries mit Modellen - wie 'Spleeter' - mir gerade meine interne Festplatte verstopfen und mir wieder mal der Speicherplatz ausgeht. Darum will ich versuchen, die Tage mal das via der API von 'lalal.ai' zu probieren, da ich mir dort mal ein Paket kaufte, es mir aber zu mühselig wurde, die Daten hochzuladen und die Stems wieder runterzuladen. Bin gespannt, ob ich aus Python via API lalal nutzen kann, ohne noch irgendwas manuell machen zu müssen.
Für Gesang wurde nun diese Plattform nach ersten japanischen Modellen auch für englische Modelle erweitert, die Ergebnisse klingen gar nicht mal so übel. Tatsächlich sind die wenigen Demos des Herstellers schlechter, als das, was die die ersten youtuber gemacht haben:
https://www.acestudio.ai/?cl=a02
Mit meinem MacOS leider ebenfalls nicht kompatibel, da 10.14 als Minimum gefordert wird.
Was Bishu damit macht, ist schon ziemlich gut:
https://www.youtube.com/watch?v=hf-UTw7grns
Geschrieben von: chris (Usernummer # 6) an
:
Audacity für Windows hat nun auch AI-Plugins implementiert:
Music Separation -- Separate a mono or stereo track into individual stems -- Drums, Bass, Vocals, & Other Instruments.
Music Style Remix -- Uses Stable Diffusion to alter a mono or stereo track using a text prompt.
Noise Suppression -- Removes background noise from an audio sample.
Music Generation -- Uses Stable Diffusion to generate snippets of music from a text prompt.
Whisper Transcription - Uses whisper.cpp to generate a label track containing the transcription or translation for a given selection of spoken audio or vocals.
Da noch nicht für Mac verfügbar, konnte ich es nicht testen, hier die Infos, wer als Wave-Editor die Software nutzen sollte:
https://plugins.audacityteam.org/ai-plugins/ai-plugins
Geschrieben von: chris (Usernummer # 6) an
:
Neues von Nobody & The Computer, in der Ausgabe wird generativer Jazz konstruiert:
https://www.youtube.com/watch?v=KU_wzEmJN_Y
A.I. Plays Bill Evans (and creates a New Jazz Subgenre)
Phänomenal erklärt, wie er das macht, um 'generativen Jazz' zu erzeugen.
Geschrieben von: chris (Usernummer # 6) an
:
Du wachst auf und siehst das erste mal Sora, am nächsten Morgen begegnest du Emo und hörst am gleichen Abend sowas hier an und so ganz langsam sprengt das alles deine Vorstellungskraft, was 'morgen' passieren wird:
https://app.suno.ai/song/307a84dc-72ce-4cac-85e7-a5e3e1f62170
https://openai.com/sora
https://www.youtube.com/watch?v=BkAjoeBWPc4
Hallo Zukunft. Hallo - äh - neue Welt. Du bist aber früh' dran.
P.S. Auch nice:
https://app.suno.ai/song/9aa5cca0-f770-4f67-9ce9-866eb7290f1b
Geschrieben von: Hyp Nom (Usernummer # 1941) an
:
Zitat:
Ursprünglich geschrieben von: chris:
Hallo Zukunft. Hallo - äh - neue Welt. Du bist aber früh' dran.
andererseits mit über 50 jahren verspätung - in den '60ern sah man sich schon auf der schiene, eine die menschliche übertreffende universelle intelligenz aus der dose zu schaffen, und dann nochmal mitte der '80er.
da hatten forschung und industrie schon große hoffnungen in KI als beherrschenden und alles umkrempelnden motor der IT-entwicklung gesteckt und jeweils ein paar jahre später enttäuscht die investitionen wieder aufgegeben.
https://de.wikipedia.org/wiki/KI-Winter
wobei man sich heute fragt, wie man beim damaligen stand von rechenleistung und speicher überhaupt schon solche erwartungen haben konnte.
Geschrieben von: dee232323 (Usernummer # 22378) an
:
Sora ist ja sowas von unglaublich krass...kein Wunder dass die Filmbranche den Aufstand probt.
Ich freue mich aber schon wenn ich der AI sagen kann "bitte das beste von Villalobos mit dem besten von Derrick Carter kombinieren und ein bisschen Melancholie ala Smiths, Cure, Van Zandt dabei".
Geschrieben von: chris (Usernummer # 6) an
:
@hyp, In der Tat, damals war das noch reine Fiktion, vor allem wenn ich daran denke, wie mein Nachbar sich mit seinem C64 und einem selbstgelöteten Akustikkoppler mit 300 Baud in die ersten Mailboxen eingewählt hatte. Und das war gut und gern 10 Jahre nach den ersten von dir genannten Gedanken.
Als wir später dann anfingen, u.a. mit Steinberg24 auf dem Amiga und Atari ST und den ersten Synthesizern und 'nem 4-Spur-Rekorder Musik zu machen, empfand ich das definitiv schon als futuristisch und wie eine kleine Revolution, als ich dann irgendwann die Hardware in den Keller stellte und nur noch am Rechner meine Musik machte, empfand ich das erneut wie eine Evolution.
Während ich letztes Jahr ChatGPT 'ganz interessant' fand, ist es jetzt kaum fassbar, in welcher Qualität und Geschwindigkeit AI-Applikationen veröffentlicht werden, gefühlt befinden wir uns gerade an der Schwelle einer schönen Neuen Welt, die ich in meinen Träumen noch nicht mal ausmalen kann. Ich denke, jeder Aspekt im Leben wird von der KI betroffen sein, ob das für uns die Musikproduktion ist, ob es unsere Berufe betrifft, selbst das Konsumieren und natürlich auch Erzeugen von Medien und Inhalten wird sich vollständig verändern:
Habe ich letztes Jahr noch für meinen Brötchengeber Blog-Artikel 'from scratch' geschrieben, habe ich vorletzte Woche einfach mal einen schreiben lassen und da quasi 'meine Handschrift' drüberstülpen lassen, Feedback der Kollegen aus dem Marketing war gewohnt klasse, ich hab' sie im Glauben gelassen, dass ich das selbst gemacht habe.
Und parallel hier frickle ich an 'nem neuen Deep-House-Track, dem gestern noch Vocals fehlten. Da ich aber keine aus der Konserve wollte, hab' ich einfach mal 'ne AI bemüht und das Ergebnis lässt mich gerade fast schon den Champagner köpfen.
Und ja, Sora und Emo sind krass, da sie aber bisweilen noch deutliche 'Artefakte' aufweisen, wird es nur noch ein paar Wochen dauern, bis die 'Bugs' ausgemerzt sind und andere Anbieter noch bessere Modelle zur Verfügung stellen - wir stehen da wirklich gerade am Anfang einer neuen Welt....
Geschrieben von: chris (Usernummer # 6) an
:
/edit:
Anestelle eines gemütlichen Fernsehabends, wie geplant, hat 'suno' mich dann doch sehr, sehr lange in den Bann gezogen: Auch wenn man extrem limitiert ist, was den Prompt betrifft und die Ergebnisse stark zufällig klingen, so kann man wahnsinnig spannende Songs generieren, zumal ich auf Github die Modelle entdeckt habe und die sind sehr, sehr vielfältig. Man muss sich experimentell an den Prompt herantasten, bis man näherungsweise zu den erwünschten Ergebnissen kommt. Da jeder 'Song' max. 'ne Minute dauert, kann man mehrere davon zu einem Song verketten und hier weisen die Arrangements noch ein paar Defizite aus, ABER wenn man das dann in der DAW nachbearbeitet, kann man wirklich verblüffend gute Songs erstellen.
Stilistisch geht da extrem viel, selbst Gesang in Fremdsprachen - also deutsch - sind faszinierend gut gelungen und wenn man in der 'explore'-Sektion wühlt, findet man wahnsinnig kuriose Sachen, ob 8bit-Dubstep bis hin zu AcidJazz und selbst minimalere Sachen mit Clicks & Cuts.
Mich juckt's nun sehr in den Fingern, einen Song zu vollenden und überlege, wie ich den mit einem Alias unter die Leute bringe.
[ 05.03.2024, 14:49: Beitrag editiert von: chris ]
Geschrieben von: chris (Usernummer # 6) an
:
Nach ein paar Nächten mit suno, hier ein paar Eindrücke und Einblicke, da die verschiedenen y'tube-Clips dazu n.m.E. nicht wirklich Aufschluss geben und nur versuchen, auf den AI-Zug aufzuspringen und clickbait'isch Views zu generieren:
Positives:
Das für mich Erstaunlichste an der V3 Alpha: Die Songs können mich emotional berühren und schleudern alle klassischen Aussagen á la 'Nur der Mensch kann Emotion in die Stimme legen' ganz weit weg. So manche Songs sind vom Vibe, der Instrumentalisierung, den Lyrics und dem Arrangement, vor allem aber aufgrund der Intonation so unfassbar krass, dass sie mich ergreifen und berühren und ich bin seit Tagen darüber mehr als perplex. Gerade wenn es um Soul oder Emo-Pop geht, kann man mit etwas Glück (siehe unten) Ergebnisse erzielen, die radio- und tiktok-tauglich sind als durchaus echtes Hit-Potential besitzen mit starkem Ohrwurm-Charakter.
Die Qualität der verschiedenen Modelle ist unfassbar gut in der Alpha 3-Version - wenn man zudem bednekt, dass es sich noch um einen ersten Alpha-Test handelt, kann ich es kaum abwarten, bis das Beta sein wird.
Viele - nicht alle! - der Modelle werden so bearbeitet, dass der Gesang einen eigenen Charakter und eigenen Charme hat, das hat also absolut nichts mehr mit Vocaloid-ähnlich synthetischem Singsang mehr zu tun. Anders formuliert, für mich ist nicht mehr zu unterscheiden, ob eine Sängerin oder ein Sänger im Studio stand oder das suno generiert hat - in vielen Fällen. Und je nach Prompt natürlich.
Es ist absurd, wie viele Genres und Styles die Plattform heute generieren kann und wie man sie je nach Prompt auch wild durchwürfeln kann, ich habe in den letzten Tagen noch keine großen Lücken gefunden, ob man klassische Film-Musik erstellt, 80er Pop, modernen Emo-Pop, New Wave, EDM - aber es gibt Lücken, oder ich stelle mich beim Prompten noch ungeschickt an.
Mit ein paar Tweaks im Prompt kann man auch extrem ungewöhnliche Ergebnisse erzielen, selbst leicht schiefer Gesang ist möglich, es klingt also nicht immer zwingend glattgebügelt perfekkt, ganz im Gegenteil, man kann unfassbar realistische Ergebnisse generieren.
In meiner Bibliothek sind nun Songs, die ich durchaus etwa mit Portishead oder Billie Eilish vergleichen kann, spaßeshalber habe ich für Vater gestern ein paar Songs im Stil der Talking Heads generieren lassen, die Genre-Vielfalt ist überwältigend gut.
Und es ist unfassbar günstig, zumal ich mehrfach die FAQ durchlas und wenn ich mich nicht irre, kann ich mit den Ergebnissen machen, was ich will, sie also auch kommerziell beliebig verwerten.
Es gibt aber auch noch ein paar kleinere Negativa:
Ich hab's bislang kaum geschafft, deep- oder micro-house oder den für unser Empfinden klassischen House-Sound aus der Maschine zu bekommen, stilistisch geht's häufig eher in diese kommerzielle EDM/Dance-Ecke, nur in seltenen Fällen schaffte ich es, so'n milk&sugar-House-Sound zu machen. Techno habe ich, offen gestanden, noch nicht probiert und muss dazu noch ein paar extra-Credits dazubuchen.
Und damit zu größten Nadelohr: Es gibt keine Dokumentation für den Prompt, auf 'nem reddit-sub gibt es nur ein paar wenige Hinweise, u.a. dass man auch in den Lyrics in eckigen Klammern noch ein paar Infos mitgeben kann - und die Länge des eigentlichen Prompts ist sehr begrenzt, d.h. man kann sich aktuell eher nur experimentell dem gewünschten Ergebnis nähern, dies wiederum bedeutet, dass man durchaus auch mal 50 Songs generieren lassen muss, bis man einen hat, der dem entspricht, was man sich erwartet:
Bei gleichem Prompt ähneln sich etwa 30% der Ergebnisse sehr stark, d.h. suno greift gern auf die gleichen Modelle zurück, was Instrumentalisierung und Stimme betreffen. Anders gesagt, Try&Error ist absolut notwendig, d.h. das kostet Zeit und 'Credits': Manchmal ist bei den ersten Ergebnissen was Brauchbares dabei, manchmal muss man viele Iterationen durchlaufen. Zufall und Glück spielt also eine wesentliche Rolle und Geduld.
In sehr seltenen Fällen macht das System auch noch Murx, was aber auch ganz charmant sein kann: In etwa 2 von 100 Versuchen kam unverständliches Gebrabbel in einer Fantasie-Sprache raus, in vielleicht 5 von 100 Fällen wurden Worte verschluckt, so dass die Lyrics keinen Sinn mehr ergaben. Aber auch das kann man kreativ nutzen, gerade die Fantasie-Sprache hat durchaus ein gewisses Flair.
Und: In etwa einem Drittel der Fälle wurden Teile des Prompts einfach ignoriert. Aus meinem gestrigen Versuch, 'n House-Song zu machen, waren gut ein Drittel der Ergebnisse entweder Downbeat-Popsongs oder ur-amerikanischer R'n'B. Immerhin kam kein Schlager oder Trash-Metal raus, aber es wurden durchaus viele Songs aus vollkommen anderen Genres mir hingelegt.
Da man - und das ist wohl das größte Alpha-Defizit - keine konkreten Angaben zum Gesangsmodell machen kann und keine 'Profile' speichern kann, kann ich also nicht ein hervorragendes Ergebnis nehmen und darauf basierend andere Variationen oder komplett neue Songs erstellen, d.h. aktuell fehlt noch die Kontinuität vollständig: Ein ganzes Album zu erstellen mit dem gleichen Sound der Stimme, das geht nur mit hunderten von Versuchen und viel Glück.
Ich bin mehr als beeindruckt und sehr fasziniert, vielleicht stelle ich euch die Tage mal ein paar Beispiele von mir zur Verfügung, wenngleich man in der 'explore'-Sektion schon einen sehr guten Eindruck über die Vielseitigkeit erhält, auch wenn da 'ne Menge lustiger Quatsch mit dabei ist.
Offen ist die Frage, wie das eigene Gewissen reagieren würde, wenn man beginnt, die Sachen 1:1 und ohne Modifikation kommerziell zu veröffentlichen.
Kurzum, das Ding ist wirklich nicht zu unterschätzen und extrem krass.
Geschrieben von: chris (Usernummer # 6) an
:
Für 'ne 'alpha' ist das schon ziemlich sehr, also... krass. Klangbeispiele aus meiner Spielwiese:
Song / Versuch: 'Creepo'
emo-pop 'pella
trip-emo-pop
Bristol Trip-Hop
Baut außerdem verblüffend brauchbare Ideen
Kittin' Techno / Acid-House
Glitch Pop Soul
Deep House
Geschrieben von: dee232323 (Usernummer # 22378) an
:
Hammerhart was das Ding jetzt schon kann...
Geschrieben von: chris (Usernummer # 6) an
:
Zitat:
Ursprünglich geschrieben von: dee232323:
Hammerhart was das Ding jetzt schon kann...
Absolut. Und da es sich weiterhin nur um eine alpha-Version handelt, wird es umso spannender, wenn das 'Beta' oder sogar final ist: Im 'worst case' rechne ich damit, dass Funktionen implementiert werden, die es gestatten, von einem Versuch ähnliche Versionen zu erstellen, eventuell kommen sie dann noch auf die Idee, die einzelnen Stems laden zu können:
Wenn das passiert und die Prompts besser interpretiert werden - das ist heute wirklich noch sehr zufällig und mit viel Glück verbunden, was rauskommt - dann müssen sich die ganzen großen Sample-Anbieter und -Plattformen schleunigst Gedanken machen, wie sie ihr Modell noch aufrecht erhalten wollen.
Denn während ich nun alle meine 'Credits' verbraten habe, habe ich gut und gerne mehr als 50 Skizzen und Ideen und 'Song-Starter' nun generiert, die für mich klassische Sample-Bibliotheken fast vollständig ersetzen, da ich die Stems dann hier auf meiner Maschine extrahieren werde.
Noch klappt bei Suno nicht alles perfekt, was gestern z.B. gar nicht klappte, war der Versuch, lediglich ein paar schnuffige Dub-Chords zu erstellen. Egal, wie der Prompt aussah, es waren immer Beats mit dabei, oft auch Melodien mit anderen Instrumenten. Und genau damit ich habe vergeblich meine restlichen Credits verbrannt, ohne ein einziges, brauchbares Ergebnis zu erhalten. Aber 'alpha' halt.
Die ersten nutzen bereits die Suno-Tracks und bügeln lokal die neue 'replay'-Anwendung drüber, um die Stimmen auszutauschen: Wäre also der Gesang von suno zu 'generisch', dann füttert man 'replay' mit einem Modell eines anderen Sängers oder einer Sängerin und schon hat man die gleichen Lyrics, die gleiche Intonation und Phrasierung, aber eben mit 'ner anderen Stimme. Und 'replay' will künftig sogar Sänger:innen engagieren und diese Modelle dann zur Lizenz anbieten, da es rechtlich ja doch eher bedenklich ist, z.B. mit 'nem Kylie- oder Madonna-Modell zu arbeiten.
Geschrieben von: chris (Usernummer # 6) an
:
Wollte die KI mit 'nem seltsamen Prompt irritieren und das Ergebnis ist, tja, nun, zwar nicht mein Genre (Eurovision Grand Prix 1965) und ich hab' keinen Plan, was die Lyrics bedeuten sollen, die da aus dem 'nichts' kamen, aber die technische Umsetzung haut mich gerade sowas vom Hocker:
https://app.suno.ai/song/23189672-b7b4-44d1-8c72-93cc36272029
Geschrieben von: chris (Usernummer # 6) an
:
Ein paar Tage später ein kleines Update zu meinen Erfahrungen und ein paar News in Sachen 'Produktion & AI':
- suno.ai war dem Ansturm seit Anfang letzter Woche nicht mehr gewachsen, sie mussten zeitweise die kostenfreie Nutzung einschränken und die Algorithmen generierten ziemlich übersteuerten Lärm, vor allem beim Gesang. Entsprechend kam gestern dann eine entzückende E-Mail, in der man mir ein paar hundert Credits kostenfrei zum Konto hinzufügte.
- nach ein paar tausend Songs in den artverwandten Genres 'r'n'b' und 'emo-pop' sowie 'triphop' kennt man nun alle Gesangsmodelle und die Melodien (Gesang & Instrumente) sind unabhängig vom Prompt keine großen Überraschungen mehr, d.h. man erkennt dann ein ähnliches Muster, nur in absoluten Ausnahmefällen entstehen noch einzigartige Sachen.
- Prompten will gelernt sein, schon ein kleines Komma generiert vollständig andere Ergebnisse im Eingabefeld für den Prompt, Prompten IN den Lyrics geht auch, die Erfolgschance sehe ich aber so bei nur 10%, z.B. für ein Solo o.a.
- Natürlich kann man lustig Genres miteinander vermengen und so entstehen kurios-lustige Sachen, die auf der 'Explore'-Seite viel Zuspruch erhalten, innerhalb eines Genres aber lassen sich die o.g. Muster nach ein paar hundert oder ein paar tausend Songs oder Tracks erkennen, ähnlich zu Texten und Bildern anderer AI.
- Die Ergebnisse lassen sich sehr wenig beeinflussen, es ist also mit jedem Klick wie ein Würfelspiel, auch bei identischem Prompt kann man mehrere hundert Songs erzeugen und jeder ist immer ein wenig anders: Damit entsteht nach der Arbeit des Promptens und der Ideenfindung vor allem das zeitintensive 'Selektieren', wie etwa beim Durchforsten von Sample-Libraries. Man braucht also etwas Geduld und Muse, wenn man konkrete Vorstellungen hat, wie das Ergebnis klingen soll und braucht Glück.
- Für elektronische Musik ist Suno auch durchaus tauglich, auch hier muss man sehr auf den Prompt Acht geben, was wir hier kollektiv z.B. als 'House' verstehen, ist für Suno eher EDM, mit dem Attribut 'underground' im Prompt hingegen kommen dann schon Ergebnisse, die man auch hier in's myTracks stellen könnte. Generell habe ich das Gefühl, dass für alle Genres Suno eher das berücksichtigt, was wir früher als 'kommerziell' interpretierten.
Und während Suno manchmal überlastet ist, stehen schon die nächsten Anbieter in den Startlöchern, u.a. Sonauto mit einer GUI, die mir nicht gefällt, die aber die Stems auch separat exportiert und durchaus ähnlich erstaunliche Ergebnisse erzeugt. Der elementare Unterschied ist derzeit, dass Suno keine Eingabe von bekannten Künstlern gestattet, man kann also nicht sagen "Erzeuge mir einen Song im Stil von Taylor Swift", vorvergangene Woche ging aber genau dies mit Sonauto, macht es also einfacher, Stile nachzuempfinden.
Die ganz neue Plattform Udio hat gestern zwei oder drei Songs 'geleaked', die Qualität der Vocals ist noch stärker im direkten Vergleich zu Suno, aber ich kann mich dort noch nicht anmelden, d.h. hier muss man sich gedulden, bis die Beta öffentlich ist. Gerade der Ausdruck der Stimmen und die Klangfarben sind noch mehr 'unique', könnte also, wenn sie alles richtig machen, das, was heute möglich ist, auf das nächste Level heben.
Ebenso hat gestern Nyxia erste Songs 'geleaked', auch sie wollen auf den Zug aufspringen, das Projekt scheint gemäß Website sich aber nicht ausschließlich auf Musik zu konzentrieren, es ist eher ein größeres Blockchain-Startup mit Krypo-Token und sie scheinen Anwendungen für allerhand Medien zu planen; die Leaks klangen auch ausserordentlich gut.
Mein Zwischenfazit:
Aktuell wird noch keine AI Musiker, Komponisten, Texter, uns Hobby-Frickler ersetzen, dafür sind die Ergebnisse viel zu 'random' und entsprechen eher konventionellerer Musik, selbst in unseren bevorzugten Genres, zumal sich mit etwas Erfahrung die Muster von Suno erkennen lassen.
Um aber Vocals oder Instrumente für die eigene Sample-Bibliothek zu generieren, dafür ist Suno unschlagbar gut und man kann sich mit den eigenen Lyrics und dem Prompt sein eigenes 'Radio-Programm' erstellen, was äußerst kurzweilig und spannend und mitunter auch lustig ist.
Aber ist es und bleibt aktuell noch 'try & error'.
Geschrieben von: SpeedyJ (Usernummer # 984) an
:
essay von cristian vogel:
Harmonies of Code and Ethics - Music AI and Ethical Dilemmas Surrounding Copyright
Geschrieben von: chris (Usernummer # 6) an
:
Zitat:
Ursprünglich geschrieben von: SpeedyJ:
essay von cristian vogel:
Harmonies of Code and Ethics - Music AI and Ethical Dilemmas Surrounding Copyright
Danke, schön geschrieben (mit oder ohne KI-Unterstützung?), das lange Essay könnte man aber wohl auch wie folgt zusammenfassen: Die AI-Plattformen bedienen sich i.d.R. ohne Genehmigung zum Trainieren ihrer Modelle an geschützten Werken, entsprechend geht ein Suno-Investor davon aus, dass es früher oder später dazu auch Klagen geben wird und die momentane Qualität von beispielsweise Suno würde auf den zweiten 'Blick' erkennen lassen, dass eben nicht Mensch die Musik macht, es aber nur eine Frage der Zeit wäre, bis die Technologie so weit wäre, um keine Unterschiede mehr zu erkennen. Und es gebe auch Plattformen, die 'fair' agieren und ihre Modelle nur mit freien Werken trainieren und an Plugins arbeiten, um den Charakter von einem Sound zum anderen zu übertragen. Das war - jetzt ohne KI genutzt zu haben - so im Wesentlichen der Inhalt. Gut geschrieben, definitiv.
Geschrieben von: chris (Usernummer # 6) an
:
Oh, das ging schnell:
www.udio.com/
als Beta ist vor ein paar Momenten live gegangen. Die ersten beiden Versuche für'n Deep-House-Track waren... gruselig.
Aber war auch nur ein flotter Einzeilen-Prompt.
Geschrieben von: FaDe (Usernummer # 7185) an
:
Zitat:
Ursprünglich geschrieben von: chris:
Zitat:
Ursprünglich geschrieben von: SpeedyJ:
essay von cristian vogel:
Harmonies of Code and Ethics - Music AI and Ethical Dilemmas Surrounding Copyright
Danke, schön geschrieben (mit oder ohne KI-Unterstützung?), das lange Essay könnte man aber wohl auch wie folgt zusammenfassen: Die AI-Plattformen bedienen sich i.d.R. ohne Genehmigung zum Trainieren ihrer Modelle an geschützten Werken, entsprechend geht ein Suno-Investor davon aus, dass es früher oder später dazu auch Klagen geben wird und die momentane Qualität von beispielsweise Suno würde auf den zweiten 'Blick' erkennen lassen, dass eben nicht Mensch die Musik macht, es aber nur eine Frage der Zeit wäre, bis die Technologie so weit wäre, um keine Unterschiede mehr zu erkennen. Und es gebe auch Plattformen, die 'fair' agieren und ihre Modelle nur mit freien Werken trainieren und an Plugins arbeiten, um den Charakter von einem Sound zum anderen zu übertragen. Das war - jetzt ohne KI genutzt zu haben - so im Wesentlichen der Inhalt. Gut geschrieben, definitiv.
Einen wesentlichen Punkt fand ich:
"Legislation and mitigation against the potential replacement of human sound artists, composers and performers, is urgent and necessary to ensure a sustainable and equitable future for music composers and performers, past, present and future."
Hab da allerdings sehr Zweifel, dass da relevantes passieren wird. Denke eher das ganze wird wild weiter ohne irgendwelche Einschränkungen wuchern...
Geschrieben von: chris (Usernummer # 6) an
:
@FaDe: Die Modelle der momentan verfügbaren Musik-AI sind ja bereits trainiert und werden mit Sicherheit noch weiter mit Daten gefüttert, da ist der Zug schon 'abgefahren' und prophylaktisch kann man bei Suno weder schon vorhandene Texte von bekannteren Songs eingeben noch den Künstlernamen, Uido ersetzt die einfach selbständig, man kann dort aber mit Artists aktuell noch 'prompten' (apropos, das Ding in der Beta ist aktuell anscheinend komplett kostenfrei). Dadurch, dass die Songs ja nicht exakt nach 'Trainingsmaterial' nachempfunden werden, wird es ohnehin schwierig, ohne Einblick hinter die Kulissen als Künstler oder Label zu beweisen, dass ungefragt 'mein Material' für das Trainieren genutzt wurde.
So unter uns, offensichtlich ist es manchmal ja dann doch schon, bei meinen letzten Suno-Läufen hatte ich einige Songs, die schon sehr extrem z.B. nach Taylor Swift, Adele, Dua Lipa oder Kylie Minogue klangen, das betraf Intonation, Arrangement und Instrumentalisierung.
Ist aber so ein bisschen wie der Leibniz Original Butterkeks und der Aldi- und Norma-Klon: Verdammt nah am Original, fast schon ein Plagiat, kommen aus unterschiedlichen Fabriken, aber die Details sind dann eben doch etwas anders, so dass kein Plagiatsvorwurf dem Stand hält.
Bin gespannt, ob jemand von euch Udio mal probiert, gern die Ergebnisse hier posten, ich hab's für heute (weil auch busy) erstnal zur Seite gelegt.
Was im übrigen das Ownership betrifft, muss man auch etwas vorsichtig sein und die AGB studieren, bei vielen Bild-Generierenden AIs wie z.B. 'Runway' besagen die AGB ganz eindeutig: Das, was du generierst, steht allen anderen Anwendern uneingeschränkt zur Weiterverwendung ebenfalls zur Verfügung, selbst wenn man den Output kommerziell verwerten darf und ein kostenpflichtiges Abo hat. Bei Suno hingegen entscheide ich, ob ich die Songs und Tracks öffentlich listen lassen will - oder nicht. Auch das wird noch spannend, wenn man die Werke anderer nutzt, evtl. auch nur geringfügig modifiziert und kommerziell verwertet.
Oh, spannende Zeiten.
Geschrieben von: chris (Usernummer # 6) an
:
Oha. udio = krass. Ich revidiere meinen ersten Eindruck vollständig.
Einzeilen-Ergebnisse:
https://www.udio.com/songs/gCRo2vfcMRVGDbF1iTF9HY
Amé-alike House
https://www.udio.com/songs/5rWDDpVaYXkWcPpDrTYeuV
Wahnsinnige Stimme
https://www.udio.com/songs/ddqGBEnS68YkAJ4PixTL3B
Hallo Pampa, haste Freude am Tanzen?
hand: https://www.udio.com/songs/xnuXFi6bqiXaaS7ckEbcmV
Thievery Corporation versus Mad Professor?
https://www.udio.com/songs/rhh2mUX64yaL3JUi8maVpU
Scooter versus Bonobo?
Geschrieben von: FaDe (Usernummer # 7185) an
:
Boah finde aufgrund der Stream-Quali und der paar Sekunden kann man dazu nicht allzuviel sagen... Vermutlich hast du längere Files in besserer Quali? Könnte mir allerdings schon vorstellen dass sich dahinter recht krasses verbirgt...
Edit: "Puddle" kommt schon vielversprechend...
Geschrieben von: SpeedyJ (Usernummer # 984) an
:
schon beeindruckend. mein erster versuch entspricht zwar nicht unbedingt meinem prompt ("a hard percussive techno track in the style of 90s Jeff Mills Detroit Techno"), dafür aber relativ authentischer 80er hiphouse/breakbeat:
https://www.udio.com/songs/eaqEEY9ysUFpkavAAzHg6b
Geschrieben von: chris (Usernummer # 6) an
:
@FaDe: Die Klang-Qualität ist aktuell noch suboptimal und klingt nach schlechter Encodierung, vermutlich ist das aber Absicht, um Hardware-Ressourcen zu sparen und dennoch möglichst viele Nutzer auf die Plattform zu bringen.
@SpeedyJ, hätte ich 1997 so sofort gekauft. Vom Vibe her ziemlich stark, geht so ein bisschen in die 'A guy called Gerald' / Voodoo Ray-Ecke.
Geschrieben von: SpeedyJ (Usernummer # 984) an
:
brostep:
https://www.udio.com/songs/inCBEsipgAzSQzh6brceyx
90s techno:
https://www.udio.com/songs/pGUnVdnpgVQPxgjyHmrg6W
banging electro:
https://www.udio.com/songs/8omQa2PDhCLKZpJrr6pWhV
Geschrieben von: chris (Usernummer # 6) an
:
@SpeedyJ, inhaltlich extrem spannend und vielseitig, aber knirscht bei dir auch die Klangqualität, klingt beim Abspielen im Browser bei mir weitestgehend noch immer wie'n schlechtes 128er mp3, habe aber - offen gestanden - noch keinen eigenen Track heruntergeladen.
So langsam wird man sich die Frage stellen müssen, was die Konsumenten wollen: Dass die Musik per se kaum noch ausreicht und stattdessen die Interaktion mit den Fans und der Artists zunehmend wichtiger wird wie auch deren damit verbundenen Präsenz in sozialen Medien, steht sicher ausser Frage. Und ich lasse mal Genres wie Film- und Fernseh-Musik aussen vor, aber im Bereich der Populär-Musik bin ich noch immer sehr stark am Grübeln, wie unsere Zukunft aussehen wird, aus der Perspektive der 'Macher' und 'Konsumenten'.
Ich war gestern Abend ebenso auch am Überlegen, ob Tia sich schon wieder zur Ruhe setzen sollte, wenn prinzipiell jeder, also wirklich jeder, sogar ohne oder mit Taschengeld-Budget sich seine Musik per Klick nach Belieben basteln kann.
Bin aber noch unentschlossen.
Geschrieben von: SpeedyJ (Usernummer # 984) an
:
wenn man die tracks runterlädt, bekommt man zwar ne 320kbps/48khz mp3, klingt aber immer noch genauso lofi wie im browser.
Geschrieben von: chris (Usernummer # 6) an
:
Zitat:
Ursprünglich geschrieben von: SpeedyJ:
wenn man die tracks runterlädt, bekommt man zwar ne 320kbps/48khz mp3, klingt aber immer noch genauso lofi wie im browser.
Dankeschööööön für' die Info!
Sobald das alles 'amtlich' klingen wird - und bei dem Tempo der KI-Entwicklung wird das quasi schon 'morgen' sein - sind wir in 'nem neuen Zeitalter angekommen.
Sprengt aber gerade meine Vorstellungskraft.
Geschrieben von: chris (Usernummer # 6) an
:
Krass: Zwar kann man bei Udio Artistnamen eingeben, die KI ersetzt diesen dann aber mit einem mal mehr oder minder passenden Prompt und das kommt dabei raus, wenn man einen Song im Stil von Depeche Mode erstellen möchte:
https://www.youtube.com/watch?v=7U57R_icuOg
Geschrieben von: SpeedyJ (Usernummer # 984) an
:
Zitat:
Ursprünglich geschrieben von: chris:
Krass: Zwar kann man bei Udio Artistnamen eingeben, die KI ersetzt diesen dann aber mit einem mal mehr oder minder passenden Prompt und das kommt dabei raus, wenn man einen Song im Stil von Depeche Mode erstellen möchte:
https://www.youtube.com/watch?v=7U57R_icuOg
gerade auf kraftfuttermischwerk gesehen und wollte es hier auch posten
das ist heftig. vor allem, dass die stimme dann doch genauso klingt wie dave gahan, obwohl udio vorgibt, "depeche mode" durch andere prompts ersetzt zu haben...
Geschrieben von: chris (Usernummer # 6) an
:
Zitat:
Ursprünglich geschrieben von: SpeedyJ:
Zitat:
Ursprünglich geschrieben von: chris:
Krass: Zwar kann man bei Udio Artistnamen eingeben, die KI ersetzt diesen dann aber mit einem mal mehr oder minder passenden Prompt und das kommt dabei raus, wenn man einen Song im Stil von Depeche Mode erstellen möchte:
https://www.youtube.com/watch?v=7U57R_icuOg
gerade auf kraftfuttermischwerk gesehen und wollte es hier auch posten
das ist heftig. vor allem, dass die stimme dann doch genauso klingt wie dave gahan, obwohl udio vorgibt, "depeche mode" durch andere prompts ersetzt zu haben...
Ja, zumindest im Frontend erscheint tatsächlich eine Fehlermeldung, wenn man die Namen bekannterer Artists eingibt und Udio dröselt sogar die exakten Attribute auf, womit der Name des / der Künstler:innen ersetzt wurde, dass das aber trotzdem eine so heftige Punktlandung ist, ist schon absurd. Darum lese ich zwischen deinen Zeilen die These, dass das nur scheinbar ersetzt wurde und du magst da durchaus Recht haben: Eventuell will man sich damit nach aussen hin nur legitimieren, keine 'Klone' zu erschaffen, aber die AI weiss genau, wie sie zu klingen hat.
Schade, dass Tia nicht auf diese Idee kam, hätte 'ne Menge Clicks gebracht, da wird'S aber wohl stündlich neue copycats geben, wenn man einmal den Trick raushat. Gehe also davon aus, dass wir viele solcher Videos sehen werden.
Geschrieben von: chris (Usernummer # 6) an
:
Udio hat gerade den 'manuellen Modus' "temporär" de-aktiviert, nachdem in den letzten Tagen wohl extrem viele generierte Songs sowas nach Plagiat klangen, dass A:B Tests in Hinblick auf Stimmen eindeutige Hinweise gaben, womit die Engine trainiert wurde und das natürlich ohne sich vorab 'ne Genehmigung zu holen. Das erklärt auch die verblüffende 'Ähnlichkeit' zu Depeche Mode beispielsweise. Desweiteren entfernt gerade Udio generierte Tracks, die eben diese, ähm, 'Ähnlichkeiten' aufweisen, wohlwissend, dass gerade die Rechtsabteilungen der großen Labels sich schon auf die Schriftsätze stürzen....
Geschrieben von: chris (Usernummer # 6) an
:
Wie man das Generieren von Musik auch marketingtechnisch ausschlachten und direkt kommerzialisieren kann, zeigt der Konzern hinter Milka mit 'ner aktuellen Muttertagsaktion:
https://sagesmitnemsong.milka.de/
Den 'bad word'-Filter kann man zwar ein wenig umgehen, da man aber nur wenige Variablen eingeben kann, ist das selbst für Unfug auch nur bedingt geeignet.
Geschrieben von: chris (Usernummer # 6) an
:
Heftig: Erste Demos von ElevenLabs Music:
Elevenslabs @ X - ElevenLabs Music
Hört euch mal den Song 'Broke my Heart' an.
Krass. Sehr krass.
ElevenLabs Music - My Ai Angel
1950er Sound.
ElevenLabs Music - Turing Completed (Rap)
Rap.
Tatsächlich nutze ich seit ein paar Wochen ElevenLabs schon beruflich zum Video-Dubben und das funktioniert erschreckend gut. Video-Clip aus y'tube verlinken oder hochladen, gewünschte Sprache(n) auswählen, ein paar Momente warten und man hat das Video inklusive der Original-Stimme(n) übersetzt und nachsynchronisiert. Quasi per drag&drop.
Fühlt sich alles noch ein wenig bizarr an, aber mittlerweile alltäglich, alltäglich bizarr.
[ 15.05.2024, 22:41: Beitrag editiert von: chris ]
Geschrieben von: chris (Usernummer # 6) an
:
Extrem unspektakuläre Demo der Youtube-AI mit Marc Rebillety, zumal doch gerade das spontane Jammen des 'Loop Daddy' und seine Performance und Interaktion mit dem Publikum das ist, was ihn n.m.E. so auszeichnet:
https://www.youtube.com/watch?v=IdRBiQiN1oc
Geschrieben von: dee232323 (Usernummer # 22378) an
:
Hardgore...aber der ElevenLabs Music - Turing Completed (Rap) führt ins Leere.
Geschrieben von: chris (Usernummer # 6) an
:
Zitat:
Ursprünglich geschrieben von: dee232323:
Hardgore...aber der ElevenLabs Music - Turing Completed (Rap) führt ins Leere.
https://www.youtube.com/watch?v=F15W12SPcHU
Der klingt hauchdünn synthetisch für mich, weil recht steril in der Stimmfarbe, aber dieser double-speed-Part ist irre, auch, was im Verlauf des Tracks in Sachen Intonation und Counterpart passiert, ist krass.
Geschrieben von: chris (Usernummer # 6) an
:
Nachdem man in Uido die generierten Songs ai-typisch nun manipulieren kann und Suno auf Anhieb in der V3.5 nu' auch längere Songs/Tracks generiert, Elevenlabs das gleiche Konzept in noch höherer Detailtiefe demnächst rausbringt, sich also alle diese Plattformen prinzipiell ähneln, soll man demnöchst angeblich bei Suno V4 selber''n Sound hochladen können:
Noch habe ich keine Infos zur den Specs gefunden, was man also da hochjagen darf (Dateigröße, Spielzeit, Loops, (c)opyright-Material, Gesang..?), wenn das nicht allzu restriktiv ist, ist das ein neuer Ansatz, der eventuell 'ne Menge Spaß verspricht und Potential hat, nun endlich gezielt z.B. Track-Skizzen und Ideen nicht mehr nur zu prompten.
Geschrieben von: chris (Usernummer # 6) an
:
Der 'Kampf' geht in die nächste Runde, Suno startet einen Contest und will 1.000.000,- US$ unter die Leute bringen, der Betrag wird unter allen Gewinnern der meisten Likes & Plays verschenkt, d.h. jeder, der seine Songs auf suno.ai öffentlich macht und hier im 'Trending-Bereich' zu finden ist, kann in Theorie und Praxis teilnehmen - das Ziel ist klar, dass die Suno-Nutzer ihre Sachen damit öffentlichwirksam in sozialen Medien verbreiten sollen:
https://suno.com/
Außerdem hat Suno Ende Mai noch mal 125 Mio Dollar an frischem Kapital eingesammelt.
Geschrieben von: chris (Usernummer # 6) an
:
Suno hat nun ebenfalls die Funktion aktiviert, selbst Tracks / Samples (6-60 Sekunden lang) hochzuladen, um sie dann synthetisch zu verlängern. Sofern man Vocals hochlädt, kann man auf der Suno-Plattform die Songs nicht mit anderen Teilen, damit will man sich wohl ein wenig schützen, dass tonnenweise Acapellas regulärer VÖ hochgeladen werden. Ich experimentiere da gerade noch ein wenig mit, aber die ersten Ergebnisse sind sehr spannend, da die Song-'Erweiterung' das Sample weiter nutzt, auf das Tempo und die Tonart und mitunter sogar auf die Melodien und Harmonien des Uploads eingeht.
Hier hatte ich zwei Samples (Violine & Beat) einfach zusammengeklebt und hochgeladen und das Ergebnis ist ein ziemlich spannend minimaler Glitch-Pop-Song:
Westend Ghetto - Weirdo
Geschrieben von: oskar (Usernummer # 7383) an
:
@chris: samples hochladen und mehr samples bekommen? klingt lustig. da kann man bestimmt was mit anstellen.
edit: offtopic entfernt
[ 20.06.2024, 05:04: Beitrag editiert von: oskar ]
Geschrieben von: chris (Usernummer # 6) an
:
Zitat:
Ursprünglich geschrieben von: oskar:
@chris: samples hochladen und mehr samples bekommen? klingt lustig. da kann man bestimmt was mit anstellen.
edit: offtopic entfernt
Anders und vereinfacht erklärt:
Entweder Sample (Singular) hochladen und kompletten Song mit dem Sample als Ergebnis erhalten.
Oder bis zu 60 Sekunden 'kompletten' Track / Song hochladen und 'Fortsetzung' erhalten.
Geschrieben von: chris (Usernummer # 6) an
:
Gefühlt überfällig, nachdem sich Suno und Udio gegen die Auskunft sperren, womit sie ihre Modelle trainiert haben, nun also folgen wohl die Klageerhebungen der Musikindustrie gegen diese beiden Plattformen:
https://cdm.link/2024/06/generative-ai-lawsuit/
"Generative AI is “generating” existing pop songs: industry lawsuit"
Geschrieben von: chris (Usernummer # 6) an
:
Ops. Da kam gerade eine E-Mail mit einem Glückwunsch von Suno, mein kleiner Glitchpop-Song mit dem weirden String-Sample ('weirdo') gehörte im Juni zu den 100 am meisten gespielten Songs aller Suno-Songs und anscheinend gibt's dafür ein paar Cent Preisgeld. Bin jetzt, offen gestanden, ziemlich perplex, weil das ja eigentlich nur ein Test war, um zu sehen, was man mit eigenen Sample-Uploads basteln kann und ich hab' den - abgesehen von hier - nirgendwo verlinkt und beworben, hatte den lediglich auf den Status 'öffentlich' gesetzt, damit ihr ihn hören könnt.
Manchmal sind die Wege zum Ziel unergründlich, aber freut mich doch irgendwie jetzt schon sehr.
Geschrieben von: chris (Usernummer # 6) an
:
BÄM! Gestern eine Paypal-SMS über den Erhalt von 83,- EUR Preisgeld für den Suno-Track, der's unter die n am meisten gespielten im ersten Teil des Contests geschafft hat. Wären ursprünglich 100,- US$, aber aufgrund des Umrechnungskurses und Gebühren sind es dann ein paar EUR weniger: Ich freu' mich, auch wenn das aufgrund der gekaufteb Credits und des kostenpflichtigen Abos in den letzten Monaten mehr oder minder nun 'n Nullsummen-Ding ist.
Aktuell würde mich bei Udio diese Remix-Funktion reizen, aber die steht natürlich auch nur zahlungswilligen Nutzern zur Verfügung, so dass ich den Betrag erst mal behalte und mich vor allem darüber freue, dass der Song inzwischen knapp 1.000 mal schon gehört wurde.
Geschrieben von: oskar (Usernummer # 7383) an
:
chris geht ab! herzlichen glühstrumpf zum unerwarteten erfolg an neuen unfern! ganz ehrlich, find ich klasse!
Geschrieben von: chris (Usernummer # 6) an
:
Zitat:
Ursprünglich geschrieben von: oskar:
chris geht ab! herzlichen glühstrumpf zum unerwarteten erfolg an neuen unfern! ganz ehrlich, find ich klasse!
Das Witzige ist, dass der Song ja tatsächlich nicht pures AI-Gedingse ist, weil ich ja zwei eigene Samples verschmolzen und dann hochgeladen hatte und das Ergebnis extrem - und das ist jetzt nu reiner Zufall - minimalistisch wurde, faktisch die AI sich 'nur' um ein paar kleinere Drum-Fills und den Gesang 'kümmerte' sowie um das Arrangement, da steckt also wider Erwarten 'ne große Prise 'Westend Ghetto' drin.
Hmmmm.... vielleicht pflanze ich den sogar auf s'cloud? Wobei mein Gewissen sich da noch uneins ist.
Ich habe nach wie nur keinen Schimmer, wie der überhaupt entdeckt wurde: Man wurde ja angehalten, für den ersten Contest seine Sachen ordentlich in sozialen Medien zu promoten. Was ich Nullinger gemacht habe.
Zufall und 'ne Prise Glück waren da wohl im Spiel.
Geschrieben von: oskar (Usernummer # 7383) an
:
@chris: not a weirdo! daher behalte ich mal meine thesen, wie es wohl dazu kam, lieber für mich. *fg
Geschrieben von: chris (Usernummer # 6) an
:
Zitat:
Ursprünglich geschrieben von: oskar:
@chris: not a weirdo! daher behalte ich mal meine thesen, wie es wohl dazu kam, lieber für mich. *fg
Doch, raus mit der Sprache, bitte.
Not the norm, but that's okay,
In my own world, I'll stay.
Und ja, ich kann die Lyrics auswendig mitsingen.
Weil auch nicht ausschließlich ÄI EI.
Geschrieben von: oskar (Usernummer # 7383) an
:
Zitat:
Not the norm, but that's okay,
In my own world, I'll stay.
.
Geschrieben von: soulstar (Usernummer # 5668) an
:
je mehr Ai musik ich höre desto mehr nimmt es mich wunder wie leichtfertig sich die menschen selber obsolet machen möchten. wobei - es sind ja immer noch nur menschen die AI nutzen um es sich bequemer zu machen. arbeitsteilig zu wirken liegt wohl in der natur des menschen.
Geschrieben von: chris (Usernummer # 6) an
:
Zitat:
Ursprünglich geschrieben von: soulstar:
je mehr Ai musik ich höre desto mehr nimmt es mich wunder wie leichtfertig sich die menschen selber obsolet machen möchten. wobei - es sind ja immer noch nur menschen die AI nutzen um es sich bequemer zu machen. arbeitsteilig zu wirken liegt wohl in der natur des menschen.
Es geht jetzt gar nicht mehr um das 'obsolet machen _möchten_', die AI ist da und sie wird wohl nicht mehr verschwinden, d.h. wir befinden uns plötzlich in einer vollständig neuen Realität und müssen lernen, damit umzugehen und das ggfs. auch für uns zu nutzen:
In meiner Arbeit habe ich inzwischen immer im Browser DeepL für Übersetzungen offen, lasse mir von ChatGPT Gesprächsnotizen zusammenfassen oder Excel-Tabellen analysieren und erstelle anschauliche Grafiken und Beispielbilder mit Leonardo, d.h. das macht mir das Leben wesentlich leichter und spart mir jeden Tag Zeit.
Und ja, heute war u.a. in SPON ein Artikel, dass wohl schon mehr als 11.000 Künstler und Schriftsteller, Filmschaffende und Musiker nun wieder mal einen offenen Brief unterzeichnet haben, dass die Nutzung ihrer Werke für das Trainieren der AI irgendwie auch sich für sie lohnen soll, sie aber wohl auch verstehen, dass es fast zu spät ist, da so viele Modelle schon trainiert wurden.
Und gerade trudelt ein SUNO-Newsletter rein, Timbaland lädt zum AI-Remix-Contest ein und man sieht, wie sogar er mit Suno Edits seines neuen Tracks macht:
https://timbaland.suno.com/?utm_source=klaviyo&utm_medium=email&utm_campaign=timbaland-announcement
Da spielt Geld natürlich auch eine Rolle, aber es ist interessant zu sehen, dass er sich auf AI einlässt, was meine o.g. These stützt:
Es ist nun da und entweder nutzt man es und lernt, für sich darin Vorteile zu entdecken - oder man ignoriert es und wird irgendwann - früher oder später - den Anschluss verlieren.
Außerdem stehen wir - so seltsam es klingt - noch immer am Anfang, die AI macht noch immens viele Fehler und Unsinn, aber der Anbieter 'Claude' hat gestern seinen ersten 'AI Agenten' vorgestellt, der in etwa das macht, was das kleine 'Rabbit R1'-Modell als Fake suggeriert: Du gibst der AI eine Aufgabe und die klickt sich an deinem Rechner durch, bis die Aufgabe erledigt ist.
Ob das 'ne Reservierung für'n Tisch im Restaurant ist, 'ne Reise zu buchen oder E-Mails zu beantworten:
Wir nutzen hier in der Firma 'co-pilot' von Microsoft 'leider' noch nicht in allen Office-Anwendungen, aber das Teil kann schon heute dir Antworten auf E-Mails vor-formulieren, was die Apple-Intelligence künftig wohl auch können soll.
Was da in Sachen AI, AI-Agenten und Robotik auf uns zukommt, wird krass.
Und schlußendlich kommt's auch immer drauf an, was man damit macht:
Ich hatte ja erwähnt, dass ich enorm viele Credits bei Suno verpulvert habe, um ein paar gute Ergebnisse zu erhalten, die mir gefielen. D.h. auch hier gilt es, wie ein DJ, zu selektieren und das dann kreativ zu nutzen.
Es ist heute definitiv nicht so, dass man klickt und zack, hat man das perfekte Ergebnis.
In manchen Fällen habe ich inzwischen einen Prompt mehr als 100 (!) mal genutzt, um _einen_ Song zu erhalten, der für mich ganz okay war, aber trotzdem noch nach 'AI' klang.
Geschrieben von: chris (Usernummer # 6) an
:
(p.s. Las gerade eben erst, dass am Timbaland-Remix-Suno-Contest nur Bürger in den USA teilnehmen dürfen. Hmpf.)
Geschrieben von: chris (Usernummer # 6) an
:
Suno.ai hat nun ein - wie ich finde - ziemlich irres und von vielen lange gewünschtes Feature für zahlungspflichtige Abonnenten eingeführt: Personas und aktuell kann man davon sich sogar 200 in der Bibliothek speichern, sie sogar mit anderen Nutzern teilen. Vereinfacht gesagt: Wenn 'ne Stimme super ist, kann man sie also speichern und neue Songs und Tracks mit der gleichen Stimme erzeugen - das war bislang auf keiner mir bekannten AI-Audio-Plattform möglich. Derzeit ist die Funktion noch 'beta'. aber scheint sehr vernünftig zu funktionieren.
Geschrieben von: Hyp Nom (Usernummer # 1941) an
:
DJ spielt Tracks, die von Gästen per KI erstellt werden
www.fazemag.de/oesterreich-dj-spielt-tracks-die-von-gaesten-per-ki-erstellt-werden
Geschrieben von: chris (Usernummer # 6) an
:
Zitat:
Ursprünglich geschrieben von: Hyp Nom:
DJ spielt Tracks, die von Gästen per KI erstellt werden
www.fazemag.de/oesterreich-dj-spielt-tracks-die-von-gaesten-per-ki-erstellt-werden
Das ist ein spannender Ansatz, ob das im Clubbetrieb funktionieren würde, wage ich dann doch eher zu bezweifeln. Tatsächlich aber spukt schon seit längerem eine Flut an kleinen Ideen in meinem Kopf herum, darunter etwa das Konzept, ausschließlich und 'live' generierte AI-Musik zu spielen und dann auch das Publikum mit einzubeziehen, die in irgendeiner Form mitbestimmen könnten, wie es musikalisch weitergeht: Wenn also gerade z.B. nach 'ner längeren Minimal-Phase ein Techno-Kracher kommt und das Publikum darauf extrem positiv reagiert, könnte der 'DJ' dahingehend Tracks generieren, die der Publikumtendenz folgen, aber mit direkter Einflussnahme und nicht nur durch das Geschick und die Erfahrung des 'Selektas', die Stimmung auf dem Tanzflur zu spüren und richtig zu interpretieren.
Das hier verlinkte Konzept klingt noch eher nach Impro-Comedy, aber zeigt, dass es durchaus also bereits Ideen gibt, wie künftig eine Interaktion zwischen DJ / Musikern und Publikum stattfinden wird und da wir hier noch ganz am Anfang sind, wird das sicherlich sehr interessant, welche Auswirkungen die AI auch auf die, sagen wir mal, 'Clubkultur' und das Verkonsumieren von Musik auf der Tanzfläche oder in Bars haben wird.
Sets aus rein künstlich generierter Musik halte ich aktuell noch für schwierig, weil schlichtweg die 'Hits' fehlen, die das Publikum erwartet?
Geschrieben von: chris (Usernummer # 6) an
:
Suno V4-Teaser:
https://x.com/sunomusic/status/1854961069300613176?utm_source=email&utm_medium=email&utm_campaign=v4-teaser
Und ähm, das klingt im Vergleich zur aktuellen Version nicht nur cleaner und crisper und für mich nu' endlich ohne erkennbare Artefakte, denn das sicherlich cherry-gepickte Mini-Beispiel mit dieser Soul-Stimme ist schon sehr, sehr, sehr krass. Sehr.
Geschrieben von: chris (Usernummer # 6) an
:
https://suno.com/blog/v4
Die neuen Beispiele klingen unfassbar gut, gerade das zweite Beispiel mit diesem Deep-House-Touch hat's mir angetan. V4 ist seit heute Nacht verfügbar und eventuell hole ich mir über Weihnachten wieder ein paar Credits, um damit zu spielen:
Die Audioqualität hat sich n.m.E. immens zum Positiven verändert wie auch der Charakter des Gesangs. Verblüffend!
Geschrieben von: Hyp Nom (Usernummer # 1941) an
:
SoundCloud Unveils Six New AI-Powered Tools to Democratize Music Creation for All Artists
Tuney: Enables remixing, editing, and new track generation.
Tuttii: A simplified, AI-driven remixing platform for licensed music.
AlBeatz: Generate and customize your own beats like a Pro.
TwoShot: Collaborative AI tools for creating custom samples.
Starmony: Tailored for singers & rappers, supporting fan music creation.
ACE Studio: Generate singing vocals from MIDI and lyrics with studio-quality AI voices.
https://community.soundcloud.com/playbook-articles/soundcloud-unveils-six-new-ai-powered-tools-to-democratize-music-creation-for-all-artists
The integrations are with the following services:
– Fadr, which allows users to create mash-ups and remixes of their own favourite songs regardless of their experience level.
– Soundful AI, which generates studio-quality music for creators.
– Voice-Swap, which allows musicians to transform vocal stems using generative AI to match the style of licensed artist voices.
www.musicweek.com/digital/read/soundcloud-integrates-with-assistive-ai-tools-to-enable-direct-uploads-for-artists/089164
Geschrieben von: chris (Usernummer # 6) an
:
@hyp: Danke für die Info, bin mal gespannt, wie gut das umgesetzt wird. Gefühlt scheint es bei S'cloud so der Fall zu sein: "Haben wir eigene Kapazitäten und Ressourcen, uns dem AI-Thema zu widmen? Ausreichend Kapital? Ne? Oh, Mist, dann müssen wir das einkaufen".
Apropos 'einkaufen', wer Suno mal vollumfänglich ausprobieren will, aber bislang die Portokasse dafür noch nicht gereicht hat, Suno hat soeben auch 'n Black-Friday-Deal per E-Mail kommuniniziert:
"It's time to level up. Upgrade today and save up to 40% off. Get the perks of the upgraded life–like more monthly credits, access to v4 and faster generation with priority queue. Offer ends Cyber Monday at 11:59:59 PM PT."
Geschrieben von: dabase (Usernummer # 21890) an
:
Ich habe udio.com mal einen Testlauf verpasst und damit nen Haufen modernen Pop gebaut.
Imho ein ganz okayenes Angebot, weil man das Limit einzeln echt schwer sprengt, wenn man mal 12 flocken hinlegt. Leider recht Artefaktbehaftet alles und für mich dann schwer am portieren.
Ich sitze jetzt auf einem Haufen echt guter Sketches, die ich auch weiter produzieren werde.
* He never saw molly again
* Alive in the feeling
* dreamscape
Tbh. Zum allein Musik bauen ist es mir zu viel 'hit random until it sounds nice', aber kombiniert mit ein bisserl interessantem Songwriting, einer passenden Video Produktion (da passiert auch viel) sehe ich schon, wo da mehr entsteht, als ich vorher zu machen in der Lage gewesen wäre.
Die ganzen Musikgeneratoren werden generischen Top 100 Listen, wie bei Beatport z.B. einfach den Garaus machen. Sowas kann die Maschine einfach besser. Das Problem ist halt das allgemein grassierende Mittelmaß. Produzenten gehen ins internet und replizieren tausendfach das gatekeeping von z.B: 'So musst du deine Rumble Bassline machen, sonst ....' und schaffen einen perfekten Ground zero für die AI Slob Musik Überschwemmung.
[ 12.12.2024, 23:45: Beitrag editiert von: dabase ]
Geschrieben von: chris (Usernummer # 6) an
:
@base: Der Song ist niedlich und schön, dass du im Prompt auch Verweise auf elektronische Komponenten integriert hast, so wirkt er sehr frisch und modern. Und ja, um Ideen zu sammeln und zu finden, sind die Plattformen bereits erstaunlich gut.
Offen gestanden, war udio bislang suno deutlich überlegen, wenn es um die Qualität des Outputs der Vocals ging, da einerseits deutlich weniger Artefakte, andererseits sind die Stimmfarben in udio auch aussergewöhnlicher als bei suno - aber:
Auch wenn aktuell noch an Suno V4 gebastelt wird, kann man mit etwas Glück und einer Handvoll an Credits heute bereits Tracks generieren, in denen _ich_ keinerlei Artefakte mehr wahrnehme und die auch nicht mehr diesen leichten mp3-Encodierungs-'Sound' haben, ist demnach also nur noch 'ne Frage von einigen Wochen, bis die Plattformen die Klangqualität auf das nächste Level heben werden.
P.S. Die Glitches in deinem Song sind echt lässig.
P.P.S. Markiere am besten 'n Link mit dem hand-Emoji, dann wird er nicht so leicht übersehen.
Geschrieben von: Hyp Nom (Usernummer # 1941) an
:
eine tango-bekannte hat mir gestern ihren Suno-generierten tango-walzer geschickt - lyrics drehen sich um tango (im gemeindehaus) der kieler ansgarkirche. schon krass:
https://suno.com/song/1b8b675d-c4e4-4a02-a5e7-145ec7ab6605
die ära scheint näherzurücken, in der die motivation flöten geht, musik atomar in der DAW zusammenzubauen, wenn man sie viel schneller schritt für schritt per prompt formen kann.. also auch für die, die noch konkrete ideen verfolgen und nicht nur "irgendeinen" tauglichen track in einem stil generiert haben wollen.
das steht wohl noch aus, dass man per prompt im detail an ein und demselben stück herumbasteln kann.
Geschrieben von: dabase (Usernummer # 21890) an
:
@chris: ja, die glitches sind schon cool. aber leider taugen die stems, die Trennung und auch die Frequenzwahl oft nix. Alles noch echt am Anfang. Aber eine Mini-EP in dem Stil zu bauen: das werde ich auf jeden fall tun, wenn udio etwas besser klingt.
ich hab dir nochmal 2 links dazu und sie besser abgesetzt.
Geschrieben von: chris (Usernummer # 6) an
:
Zitat:
Ursprünglich geschrieben von: Hyp Nom:
eine tango-bekannte hat mir gestern ihren Suno-generierten tango-walzer geschickt - lyrics drehen sich um tango (im gemeindehaus) der kieler ansgarkirche. schon krass:
https://suno.com/song/1b8b675d-c4e4-4a02-a5e7-145ec7ab6605
die ära scheint näherzurücken, in der die motivation flöten geht, musik atomar in der DAW zusammenzubauen, wenn man sie viel schneller schritt für schritt per prompt formen kann.. also auch für die, die noch konkrete ideen verfolgen und nicht nur "irgendeinen" tauglichen track in einem stil generiert haben wollen.
das steht wohl noch aus, dass man per prompt im detail an ein und demselben stück herumbasteln kann.
Das ist in der Rohform schon durch die ersten udio-'Inpainting'-Funktionen vorhanden und da Suno ja die 'Personas' eingeführt hat, kann man mit der 'gleichen Stimme' mit dem gleichen oder veränderten Prompt zumindest homogenere Songs erstellen, und wenn man dann noch die 'Remix'-Funktionen nutzt, dann nähert man sich durchaus schon einer Methode, erste Skizzen anzupassen.
@dabase: Jo, die Stems klingen auf beiden Plattformen noch recht vorsintflutlich und qualitativ heute eher miserabel, da hatte ich auch größere Hoffnungen, dass bessere Algorithmen genutzt werden.
Geschrieben von: dabase (Usernummer # 21890) an
:
@chris: wenn du mich fragst ist das Absicht. Die Musikkonzerne hätten einfach das Internet abgeschaltet. Jetzt wo es ein paar Anbieter gibt und sicher schon die Open Source Modelle um die Ecke schauen, wird es schwerer einfach nur einen Anbieter platt zu machen.
Geschrieben von: chris (Usernummer # 6) an
:
Zitat:
Ursprünglich geschrieben von: dabase:
@chris: wenn du mich fragst ist das Absicht. Die Musikkonzerne hätten einfach das Internet abgeschaltet. Jetzt wo es ein paar Anbieter gibt und sicher schon die Open Source Modelle um die Ecke schauen, wird es schwerer einfach nur einen Anbieter platt zu machen.
Hmmmm, wir wissen nicht, was hinter den Kulissen passiert und gefühlt sind das noch technische Hürden, die ich täglich sehe, wenn ich für meinen Job versuche, mit AI kurze Videos und/oder Fotos zu erstellen und ähnlich zu ChatGPT 4O wird da aktuell noch sehr viel halluziniert. Und bei Audio interpretiere ich das in Form der Artefakte, die eben Suno V4 in der finalen Version ablegen will.
Die Musikindustrie hat ja schon eine 'bewährte' Methode gefunden, in dem die Anwälte bereits u.a. gegen Suno und Udio vorgehen in Hinblick auf das Trainingsmaterial, das anscheinend unlizensiert und ungenehmigt genutzt wurde.
Geschrieben von: dabase (Usernummer # 21890) an
:
@oskar
Jo, ganz netter service. Allerdings werde ich m al Papers lesen, wie da der aktuelle Stand ist bei Empfehlung. Für mich wirkt es, als hätten sie die tags als Basis genommen und da nicht so viel drauf gebaut. Könnte so ein Fall sein, wie mit den 'Online Mastering' sachen, die bei Ben Jordan im Test dann vermutlich großteils auf 1 Open Source Projekt zu greifen.
Ich war ja dieses Jahr auf der Sonar und da dann auch auf einigen Präsentationen die so ähnliche Sachen für Samples anboten. Wenn man sich mit den Leuten so unterhält, dann machen die alle so ca das selbe und keiner hat bisher die formel für 'hört sich so ähnlich an und passt dazu' auf track länge wirklich geknackt.
Ich vermute ganz stark, dass wir uns mit der Mukke aktuell schwer tun werden, die perlen zu finden, so lange nur aif tagging + X gesetzt wird.
Geschrieben von: dabase (Usernummer # 21890) an
:
@chris: Ich hab mich mal ganz sanft umgehört und ich denke da hat das valley halt auch einfach alle relevanten leute aufgekauft und die Musikkonzerne haben dazu nicht den Geldbeutel aufgemacht.
Aktuell schauen ganz viele wie das Reh im Scheinwerferlicht und sind etwas in Panik erstarrt.
Betrifft nicht das Management ... denen ist es egal ob sie 1 Künstler, oder ein random generierten charakter vermarkten ... da sind sie ja schon Jahrzehnte am ackern.
Geschrieben von: chris (Usernummer # 6) an
:
Zitat:
Ursprünglich geschrieben von: dabase:
@chris: Ich hab mich mal ganz sanft umgehört und ich denke da hat das valley halt auch einfach alle relevanten leute aufgekauft und die Musikkonzerne haben dazu nicht den Geldbeutel aufgemacht.
Aktuell schauen ganz viele wie das Reh im Scheinwerferlicht und sind etwas in Panik erstarrt.
Betrifft nicht das Management ... denen ist es egal ob sie 1 Künstler, oder ein random generierten charakter vermarkten ... da sind sie ja schon Jahrzehnte am ackern.
Ich würde sogar behaupten, dass die Konzerne es verpennt haben: Ich hatte hier vor langer, langer Zeit mal einen Link zu einem Youtube-Projekt gepostet, der eine erste Demo zeigte, wie Musiker künftig mit Hilfe von AI mit ihrer Stimme Songs generieren könnten und das fühlte sich damals noch extrem 'alpha' an im Vergleich zu den aktuell beliebten Plattformen. Es hilt auch nichts, dass u.a. CNN und die Medien darüber berichteten, denn bislang dürfen wohl nur einige wenige ausgewählte Kandidaten damit experimentieren und gefühlt ist da noch immer nichts fertig. Zumal sich die Frage nach der Sinnhaftigkeit stellt, warum etwa eine Frau Swift mit y'tube-Algorithmen mit ihrer Stimme etwas machen sollte.
Die Industrie hat gefühlt immer alles verschlafen, ob das der digitale Vertriebsweg von Musik und Streaming war, oder nun auch die KI, man sitzt ja weiterhin auf einem finanziell mehr als dicken Polster und solange es noch genügend Möglichkeiten gibt, die Kunden zu melken (vgl. Ticket-Preise bei Konzerten) scheint man weiter schlafen zu wollen.
Geschrieben von: chris (Usernummer # 6) an
:
Suno V4 Beta kann ab heute auch im kostenfreien Modus, also ohne Abo, ausprobiert werden. Hab's selbst noch nicht getestet, werde die kommenden Tage aber mal meine spärlichen 60 Credits damit verbraten.
(c) 1999/2ooo/y2k(+1/+2/+3+4+5+6+7+8+9+2010+2011+2012+2013+2014+2015+2016+2017+2018+2019+2020+2021+2022+2023+2024) technoforum.de | www.techno-forum.de
Das Forum für Techno | House | Minimal | Trance | Downbeats | DnB | Grime | Elektro | IDM | Elektronika | Schranz | MNML | Ambient | Udio.ai | Dub | 2Step | Breakcore | no Business Techno | Dubstep | Big Room Techno | Grime | Complextro | Mashups | mnml | Bootlegs | Chicago House | AI Music Suno | Acid House | Detroit Techno | Chillstep | Arenastep | IDM | Glitch | Grime | Experimental | Noise | Fidgethouse | Ableton Live 12 | Melbourne Bounce | Minimal Trap | Sinee | kvraudio alternative | EDM | Splice | Bandcamp Soundcloud | Free Techno Music Download | Progressive Electro House | Free VSTi |
Betreiberangaben & Impressum siehe readme.txt, geschenke an: chris mayr, anglerstr. 16, 80339 münchen / fon: o89 - 5oo 29 68-drei
E-Mail: webmaster ät diesedomain
similar sites: www.elektronisches-volk.de | Ex-Omenforum | techno.de | USB | united schranz board | technoboard.at | technobase | technobase.fm | technoguide | unitedsb.de | tekknoforum.de | toxic-family.de | restrealitaet restrealität | boiler room
Diese Seite benutzt Kuhkies und du erklärst dich damit bei Betreten und Benutzung dieser Seite damit einverstanden. Es werden keinerlei Auswertungen auf Basis ebendieser vorgenommen. Nur die Foren-Software setzt Kuhkies ausschließlich für die Speicherung von Nutzerdaten für den einfacheren Logon für registrierte Nutzer, es gibt keinerlei Kuhkies für Werbung und/oder Dritte. Wir geben niemals Daten an Dritte weiter und speichern lediglich die Daten, die du uns hier als Nutzer angegeben hast sowie deine IP-Adresse, d.h. wir sind vollkommen de es fau g o-genormt, nixdestotrotz ist das sowieso eine PRIVATE Seite und nix Gewerbliches.
Powered by Infopop Corporation
UBB.classicTM
6.5.0