„On-Device AI“ spricht lokale KI-Modelle am Mac vom iPhone aus an

Ergänzend zu „lokale LLM-Sprachmodelle auch unterwegs“: On-Device AI beinhaltet direkt einen Server Mode, der eure (An-)Fragen vom iPhone auf dem eigenen Mac rechnet – gleichermaßen ein privates „Private Cloud Compute“. Dort laufen leistungsfähigere Modelle, die auf mehr Arbeitsspeicher zugreifen und die den Stromverbrauch nicht interessieren. Mit Tailscale (+ Exit Node) klappt das von überall aus, solangeweiterlesen

Mär 23, 2025 - 14:08
 0
„On-Device AI“ spricht lokale KI-Modelle am Mac vom iPhone aus an

Ergänzend zu „lokale LLM-Sprachmodelle auch unterwegs“: On-Device AI beinhaltet direkt einen Server Mode, der eure (An-)Fragen vom iPhone auf dem eigenen Mac rechnet – gleichermaßen ein privates „Private Cloud Compute“.

Das Bild zeigt ein iPhone mit einer geöffneten App auf einem roten Hintergrund. Oben auf dem Bildschirm ist die Dynamic Island sichtbar, und die Uhrzeit zeigt 11:43. Die App scheint eine KI-Anwendung zu sein, die mit einem Mac verbunden ist und Anweisungen zur Unterstützung anzeigt.

Dort laufen leistungsfähigere Modelle, die auf mehr Arbeitsspeicher zugreifen und die den Stromverbrauch nicht interessieren. Mit Tailscale (+ Exit Node) klappt das von überall aus, solange der Mac erreichbar ist.

Aber wie bereits gestern angesprochen: Natürlich sollte Apple eine solche Funktionalität zwischen seinen Computern selbst anbieten.


Wenn du Artikel wie diesen magst, unterstütze mich doch mit einem Abo für iPhoneBlog #one. Alle Abonnent:innen erhalten jede Woche ein exklusives „Gewusst-wie”-Video, den Zugriff auf alle schon veröffentlichten Episoden sowie die Einladung zu einer ganz besonderen Community in einem privaten Slack-Kanal.