Natürliche Sprachchats, fotorealistische KI-Avatare und automatische KI-Videovertonung und Lippensynchronisation waren nur einige der Funktionen, die auf der Meta Connect vorgestellt wurden.
Ab heute erweitert Meta Meta AI um natürliche Sprachinteraktionen, so dass natürliche KI-Gespräche über Meta-Apps wie Messenger und Instagram geführt werden können.
Zuckerberg sagte: „Sprache wird eine der häufigsten, wenn nicht die häufigste Art sein, wie wir mit KI interagieren.“
Neben den Systemstimmen bestätigte Meta auch, dass einige prominente Stimmen zu Meta AI stoßen werden, darunter Judi Dench, Kristen Bell, John Cena, Keegan Michael Key und
Awkwafina.
Zu sehen gab es eine Live-Demo, in der Zuckerberg mit der KI Awkwafina sprach und sie fragte, ob Live-Demos riskant seien. Die Antwort klang sehr natürlich und gesprächig. Die KI Awkwafina antwortete, dass Live-Demos tatsächlich riskant seien und dass sie „unvorhersehbar, anfällig für technische Probleme und potenziell peinlich“ sein könnten.
Die fotorealistischen KI-Avatare von AI Studio sehen aus und verhalten sich wie du
Als Nächstes gab es einen Einblick in eine neue Funktion für Creators, die Anfang nächsten Jahres in den USA verfügbar sein wird. Mit AI Studio können Creators ihre eigenen fotorealistischen KI-Avatare erstellen, um mit ihrem Publikum zu interagieren. Meta hat bereits mit der Veröffentlichung einer Nur-Text-Version begonnen, eine interaktivere Version ist jedoch in Arbeit.
Dan Allen Stevenson III, der Autor der ersten textbasierten KI, kam für eine Live-Demonstration auf die Bühne, bei der Zuckerberg seinem Avatar eine Reihe relevanter – und weniger relevanter – Fragen stellte, die alle realistisch beantwortet wurden.
Die fotorealistischen Avatare sehen genauso aus wie ihre Schöpfer und können Direktnachrichten senden und beantworten, Links teilen, frühere Videos präsentieren und Menschen durch Gespräche führen. Sie sind ideal für Autoren, die viele Direktnachrichten erhalten, da sie Zeit beim Beantworten sparen und sogar häufig gestellte Fragen beantworten können.
Die Autoren haben auch viel Kontrolle darüber, wie ihr Avatar reagiert. Die KI-Avatare werden anhand der Schreibweise der Autoren und der Inhalte, die sie in ihren Threads, auf Instagram und Facebook posten, trainiert.
In der Live-Demo sah Stevensons Avatar dem Autor zum Verwechseln ähnlich und sprach auch so, als er eine Reihe von Fragen Zuckerbergs beantwortete.
KI-gesteuerte Videovertonung und Lippensynchronisation ist gruselig, aber cool
Zum Schluss gab es noch eine Demonstration, wie Meta mit KI-automatischer Videovertonung auf Reels experimentiert. Diese Funktion ermöglicht es Autoren, mehr Menschen auf der ganzen Welt in einer Vielzahl von Sprachen zu erreichen.
Meta beginnt mit Englisch und Spanisch und wird in Zukunft weitere Sprachen hinzufügen.
Die neuen KI-Funktionen sorgen dafür, dass die Reels automatisch auf Englisch oder Spanisch synchronisiert werden, je nachdem, welche Sprache benötigt wird.
Die automatische Lippensynchronisation sorgt dafür, dass die Lippen der Autoren mit der Übersetzung synchronisiert werden, so dass es aussieht, als würden sie wirklich eine andere Sprache sprechen. Das ist ein bisschen gruselig, aber auch sehr cool. Diese Funktion soll den Creators dabei helfen, mit einem anderssprachigen Publikum in Kontakt zu treten.