マガジンのカバー画像

日々の学びメモ

技術的なメモやサンプルコード、思いついたアイデア、考えたこと、お金の話等々、頭をよぎった諸々を気軽に垂れ流しています。
文章やサンプルコードは多少荒削りかもしれませんが、ブログや書籍にはまだ書いていないことを日々大量に… もっと詳しく
¥400 / 月
運営しているクリエイター

#LLM

llama.cppの公式Swift Packageの使い方を調べたメモ - llama.swiftuiのコードリーディ…

llama.cppにはiOS/macOS/visionOSに組み込みやすいようにSwift Packageが用意されている。 ・…

shu223
16時間前
4

OpenAIのストリーミングAPIについて調べたメモ

GPT-4oはマルチモーダルが売りで、発表では音声や動画を用いて人とリアルタイムコミュニケーシ…

shu223
11日前
2

OpenAI APIにiOSから動画を投げる実装のメモ #GPT-4o

これとか、 これの実装をやった際のメモ。 送信するフレーム数・画像サイズ画像をData型にす…

shu223
11日前
4

GPTによる動画理解のOpenAI公式ガイドを読む

OpenAIのAPIドキュメントを読んでいたら "Video understanding with vision" と題されたリンク…

shu223
13日前
4

[GPT-4o] MacPaw/OpenAI はマルチモーダル入力に対応しているのか

つい昨日、Swiftで書かれたOpenAI APIクライアントで最もスター数の多いしMacPaw/OpenAI のバ…

shu223
2週間前
8

Hugging FaceにあるLLM以外のCore MLモデルを漁ってみたメモ

Hugging FaceにはCore MLタグがあり、これで絞り込むといろんなモデルが出てくる。 Core MLモ…

shu223
2週間前
2

Copilot for Xcode をもう一度入れ直した

以前セットアップまでしたものの結局使わずにアンインストールしたCopilot for Xcodeを、今になってまた入れ直した。 使わなかった理由は、単純に使い方を調べるのがめんどくさかったのと、サードパーティ製プラグインだし、iOSエンジニア界隈で「ガシガシ使ってます!」という声をあまり聞かないので、まぁそんな使えないのではと。 ただこの生成AIが盛り上がりまくってる時代にそれをコード書きに活かせてないのはすごい損してる気がして、もう一度見直してみることにした。 勘違い

MLX版ローカルLLMをiOSで動かす

Apple Siliconに最適化された機械学習フレームワークMLXには、"mlx-swift-examples" というMLX…

shu223
2か月前
11

huggingface/exporters のソースコードを読んだメモ

ローカルLLMを自分でCore MLモデルに変換するために、Hugging Face製のツール exporters を使…

shu223
2か月前
3

ローカルLLMをCore MLモデルに変換する - huggingface/exporters の使い方

exporters とはHugging Faceが公開している exporters というツールがある。 Transformersの…

shu223
3か月前
14

Core ML版 Llama 2 7B と Falcon 7B をiOS/macOSオンデバイスで動かしてみた

Hugging Faceの以下のブログ記事が大変おもしろかった。 ざっくりいうと「LLMモデルをCore ML…

shu223
3か月前
7

macOSオンデバイスでLLMを動かすアプリの比較 -LM studio, Ollama, etc...

iOSオンデバイスで動くLLMを試すために、LLMFarmというOSSを使ったり、その実装を見たりしてい…

shu223
3か月前
5

iOSオンデバイスで動くLLMの勉強メモ その1

前回LLMFarmを動かしてみただけの記事を書いたのだが、 この分野についてもうちょっと知りた…

shu223
3か月前
7

iOSローカルで動くLLMを試す

LLMFarmという、iOS/macOSローカルでLLMモデルを動かせるOSSがある。 これを試したときのメモ。