Seit einigen Jahren programmiere ich Audio für Android. Davor bzw. parallel habe ich mich mit Windows Phone beschäftigt und die App Metro OSC veröffentlicht. Mein neuestes Projekt ist die Android-App Tunebrew, die seit 4 Wochen im Store ist und mittlerweile über 500 Downloads hat.
We can be Stars but just for the next 45 seconds.
Tunebrew erlaubt es Gesang und Sprache aufzuzeichnen welche dann automatisch an eine Melodie und an ein Lied angepasst wird. Die App ist einfach zu bedienen und für Laien gedacht. Die dahinterliegende Methode basiert auf Autotune und ähnlichen Voice Processing Effekten (Autotune, Vocoder, Pitchshift und Reverb). Wenn eine Aufnahme gefällt kann diese gespeichert und auch mit Freunden geteilt werden. Im besten Fall dient Tunebrew dazu persönliche Nachricht lustig und individuell als Audiomessage zu übertragen.
Die Idee dahinter ist nicht neu und mit Songify und Autorap gibt es zwei Applikationen die sehr professionell entwickelt und auch sehr erfolgreich sind. Wieso also eine neue App entwickeln? Zum einem hatte ich den ersten Prototypen bereits vor einiger Zeit als Studentenprojekt entwickelt. Zum anderen interessiere ich mich schon länger für das Thema „Interactive Music Compositions for Mobile Devices„. Die Hauptfragestellung dahinter:
Wie können Musiker und Künstler ihre Musik in neuen interaktiven Formaten veröffentlichen?
Und eine intuitive und expressive Möglichkeit mit Musik zu interagieren ist nun mal Stimme und mit dieser zu singen. Während ich für meine Diplomarbeit einen bestehenden Track in einen interaktiven Remix verwandelt habe wollte ich nun eine einfachere Interaktion in den Mittelpunkt stellen. Um eine klare Abgrenzung zu den bestehenden zu schaffen fokussiert sich Tunebrew auf Elektronische Musik und versucht unterschiedliche Voiceprocessing Methoden zu kombinieren.
Bei der Entwicklung sind einige Komplikationen aufgetreten, die vor allem das Android Betriebssystem betreffen. Ein riesiges Problem wenn man eine Audio Recording App entwickelt sind die qualitativ unterschiedlichen Mikrophone der vielen Geräte: Das führt zu unterschiedlichsten Ergebnissen der Audioqualität und Lautstärke. Außerdem klingen die Effekte auf einigen Geräten anders und manchmal verzerrt das Signal.
Monitoring und Analytics
Ein weiterer interessanter Aspekt bei diesem Projekt ist für mich die Auswertungsmöglichkeit via Fabric.io, die Mobile Development Plattform von Twitter. Diese Toolsuite liefert anonyme Nutzungsdaten und detaillierte Absturzberichte zu meiner App. Das ermöglich mir schnell Fehler auszubessern und Fragen über das Nutzungsverhalten zu beantworten: Wie lange wird meine App im Durchschnitt verwendet?, Wie viele Tracks nimmt ein einzelner Nutzer auf?, und welche der Songtemplates sind beliebt? Diese Daten helfen mir wenn es darum geht die App zu aktualisieren und die User Experience zu verbessern. Seit kurzem ist auch eine mobile App von Fabric.io erhältlich mit der ich Notifications erhalte wenn meine App abstürzt. Das beste an Fabric.io ist dass es komplett kostenfrei ist und man mehrere verwalten kann. Außerdem wird die Plattform laufend um neue Funktionen erweitert. Man muss sich jedoch bewusst sein dass man sich mit einem solchen Tool auch in die Abhängigkeit von einem großen Konzern begibt. Hauptinteresse von Twitter ist natürlich viele Developer an das Twitter Universum zu binden und die hauseigene Advertisingplattform zu pushen.
Fazit:
Das Entwickeln der App hat Spaß gemacht und war eine interessante Erfahrung. Vor allem da ich mich gerne mit Audioverarbeitung beschäftige. Natürlich ist die App nicht perfekt und manchmal klingen die Ergebnisse nicht unbedingt berauschend. Ich bin jedoch zuversichtlich dass , die moderne Gesangseffekte in einfache Laienapps packen, noch viel Potenzial haben. Wir leben immerhin im Zeitalter von trashiger Selbstdarstellung wo User Generated Content King ist. Da sollte wirklich jeder das Recht darauf haben wie Justin Bieber zu klingen.
Kommentieren