„On-Device AI“ spricht lokale KI-Modelle am Mac vom iPhone aus an
Ergänzend zu „lokale LLM-Sprachmodelle auch unterwegs“: On-Device AI beinhaltet direkt einen Server Mode, der eure (An-)Fragen vom iPhone auf dem eigenen Mac rechnet – gleichermaßen ein privates „Private Cloud Compute“. Dort laufen leistungsfähigere Modelle, die auf mehr Arbeitsspeicher zugreifen und die den Stromverbrauch nicht interessieren. Mit Tailscale (+ Exit Node) klappt das von überall aus, solangeweiterlesen

Ergänzend zu „lokale LLM-Sprachmodelle auch unterwegs“: On-Device AI beinhaltet direkt einen Server Mode, der eure (An-)Fragen vom iPhone auf dem eigenen Mac rechnet – gleichermaßen ein privates „Private Cloud Compute“.
Dort laufen leistungsfähigere Modelle, die auf mehr Arbeitsspeicher zugreifen und die den Stromverbrauch nicht interessieren. Mit Tailscale (+ Exit Node) klappt das von überall aus, solange der Mac erreichbar ist.
Aber wie bereits gestern angesprochen: Natürlich sollte Apple eine solche Funktionalität zwischen seinen Computern selbst anbieten.
Wenn du Artikel wie diesen magst, unterstütze mich doch mit einem Abo für iPhoneBlog #one. Alle Abonnent:innen erhalten jede Woche ein exklusives „Gewusst-wie”-Video, den Zugriff auf alle schon veröffentlichten Episoden sowie die Einladung zu einer ganz besonderen Community in einem privaten Slack-Kanal.