social.bund.de is one of the many independent Mastodon servers you can use to participate in the fediverse.
Dies ist der Mastodon-Server der Bundesbeauftragten für den Datenschutz und die Informationsfreiheit (BfDI).

Administered by:

Server stats:

99
active users

#ondeviceai

0 posts0 participants0 posts today
utzer [Pleroma]Can I run an <a class="hashtag" href="https://soc.utzer.de/tag/apple" rel="nofollow noopener noreferrer" target="_blank">#Apple</a> (M3/M4) machine headless to experiment with local <a class="hashtag" href="https://soc.utzer.de/tag/llms" rel="nofollow noopener noreferrer" target="_blank">#LLMs</a>?<br><br>What I want to achieve:<br>🎙️ Audio transcription<br>📝 Automatic summarization + minutes of meeting generation<br>🌐 Ideally with a local web-based GUI<br><br>Requirements:<br>✅ Full use of Apple Silicon performance (M3/M4)<br>✅ Headless setup<br>✅ Support for different open-source LLMs<br><br>Are there any existing solutions or projects that match this use case?<br>Any tips or experiences welcome!<br><br><a class="hashtag" href="https://soc.utzer.de/tag/applesilicon" rel="nofollow noopener noreferrer" target="_blank">#AppleSilicon</a> <a class="hashtag" href="https://soc.utzer.de/tag/ondeviceai" rel="nofollow noopener noreferrer" target="_blank">#OnDeviceAI</a> <a class="hashtag" href="https://soc.utzer.de/tag/llm" rel="nofollow noopener noreferrer" target="_blank">#LLM</a> <a class="hashtag" href="https://soc.utzer.de/tag/opensource" rel="nofollow noopener noreferrer" target="_blank">#OpenSource</a> <a class="hashtag" href="https://soc.utzer.de/tag/ai" rel="nofollow noopener noreferrer" target="_blank">#AI</a> <a class="hashtag" href="https://soc.utzer.de/tag/selfhosted" rel="nofollow noopener noreferrer" target="_blank">#SelfHosted</a> <a class="hashtag" href="https://soc.utzer.de/tag/edgeai" rel="nofollow noopener noreferrer" target="_blank">#EdgeAI</a> <a class="hashtag" href="https://soc.utzer.de/tag/privateai" rel="nofollow noopener noreferrer" target="_blank">#PrivateAI</a>
utzer [Pleroma]Kann ich einen <a class="hashtag" href="https://soc.utzer.de/tag/apple" rel="nofollow noopener noreferrer" target="_blank">#Apple</a>-Computer (M3/M4) headless betreiben, um darauf lokal ein paar <a class="hashtag" href="https://soc.utzer.de/tag/llms" rel="nofollow noopener noreferrer" target="_blank">#LLMs</a> laufen zu lassen?<br><br>Ziel:<br>🎙️ Audio-Transkripte erstellen<br>📝 Automatische Zusammenfassungen &amp; „Minutes of Meeting“<br>🌐 Idealerweise via Web-GUI im lokalen Netzwerk erreichbar<br><br>Wichtig:<br>✅ Volle Ausnutzung der Apple-Hardware (M3/M4)<br>✅ Headless-Betrieb<br>✅ Unterstützung verschiedener freier LLMs<br><br>Gibt es dafür schon eine brauchbare Lösung oder Projekt? Erfahrungen?<br><br><a class="hashtag" href="https://soc.utzer.de/tag/llm" rel="nofollow noopener noreferrer" target="_blank">#LLM</a> <a class="hashtag" href="https://soc.utzer.de/tag/applesilicon" rel="nofollow noopener noreferrer" target="_blank">#AppleSilicon</a> <a class="hashtag" href="https://soc.utzer.de/tag/ondeviceai" rel="nofollow noopener noreferrer" target="_blank">#OnDeviceAI</a> <a class="hashtag" href="https://soc.utzer.de/tag/opensource" rel="nofollow noopener noreferrer" target="_blank">#OpenSource</a> <a class="hashtag" href="https://soc.utzer.de/tag/techfrage" rel="nofollow noopener noreferrer" target="_blank">#Techfrage</a> <a class="hashtag" href="https://soc.utzer.de/tag/ai" rel="nofollow noopener noreferrer" target="_blank">#AI</a> <a class="hashtag" href="https://soc.utzer.de/tag/ki" rel="nofollow noopener noreferrer" target="_blank">#KI</a>