Archiwum / Newsletter 1

Lokalny model LLM na Twoim komputerze (deepseek-r1:8b)

Cześć,

Tu Kuba - fajnie, że czytasz 🙂 mamy dzisiaj sporo do omówienia:

  • Insight: O tym jak odpalić lokalny model LLM
  • 3x Do sprawdzenia: biblioteka workflow n8n, akademia OpenAI i dobry trick do Twoich promptów
  • Rozwój: audiobook który pozwoli Ci ogarnąć marketing
  • Building-in-public: nie uwierzysz jak przeczytasz...

Do dzieła, miłej lektury 👍

Dołącz do newslettera Ogarniam Technologię 👉

Jeśli chcesz dostawać kolejne edycje na świeżo — zanim trafią tutaj — dołącz do ponad 700 osób, które już ogarniają technologię razem ze mną.

Zero spamu. Możesz wypisać się w każdej chwili.
Poznaj naszą politykę prywatności.

INSIGHT

Odpalamy lokalny model AI na własnym komputerze

Są takie rzeczy o których z ChatemGPT nie rozmawiam... nie mogę, nie chcę, albo się wstydzę 😉 pewnie to znasz. Z ratunkiem przychodzą tutaj modele open source, które w kilka minut możesz odpalić na swoim komputerze.

Dlaczego warto?

  • Prywatność i poufność - masz pełną kontrolę nad danymi, zapytania i odpowiedzi nie lądują na "cudzych" serwerach. A może masz NDA ze swoimi klientami i czujesz (prawidłowo...) opór przed wrzucaniem ich dokumentów do Czata.
  • Może chcesz uruchomić "klasyfikację e-maili" korzystając z np. n8n, ale krzywisz się na myśl dzielenia się swoją prywatną skrzynką pocztową z naszymi overlordami z OpenAI.
  • Wielkie bragging rights - wspomnij w rozmowie przy ekspresie do kawy i bądź wyższa/y o 2cm ;)

A dodatkowo (bo są wśród Was ludzie biznesu 🤑) - jeżeli nauczysz się komercjalizować tą umiejętność - można na tym dobrze zarobić. Coraz więcej soloprzedsiębiorców czy agencji butikowych robi niemałe pieniądze 💰 na dostarczaniu lokalnych modeli AI dla swoich klientów.

Jakie są minusy?

Podstawowy minus jest taki, że jakość modeli które można uruchomić na domowym sprzęcie jest... umiarkowana. Jeżeli ChatGPT o3 potraktujemy jak dobrze opłacanego Senior Konsultanta z McKinsey, to lokalny LLM jest takim nieco mniej ogarniętym juniorem świeżo po studiach 😉. Wciąż może być przydatny ale nie oczekuj cudów.

Natomiast jeśli uznasz, że ma to sens, może zaczniesz (tak jak ja) interesować się poleasingowymi serwerami z 1TB pamięci RAM na którym można odpalić najnowszego Deepseek-r1:671b 💪. Z takim sprzętem można być bardzo blisko możliwości komercyjnych modeli (pod względem jakości - na wydajność, niestety, nie ma co liczyć).

O co chodzi z tym "b"?

Jest cała masa darmowych (open-source) modeli które możesz pobrać na swój komputer i korzystać z nich lokalnie. Dzisiaj spróbujemy uruchomić model Deepseek-r1:8b którego aktualizacja wyszła (w momencie pisania tego maila) dosłownie kilka godzin temu.

8b to ilość parametrów w modelu → b jak BILION, czyli 8 000 000 000 000. I to jest model wagi piórkowej. Rozmiar takiego modelu na dysku to ok. 5.3GB a to oznacza, że jeśli chcesz go odpalić na własnym sprzęcie musisz mieć nieco ponad 5GB wolnej pamięci RAM. Jeżeli masz dedykowaną kartę graficzną z pamięcią VRAM to jeszcze lepiej, poniżej porównanie przepustowości:

  • Pamięć RAM DDR4 (starsze komputery) - 20-40 GB/s
  • Pamięć RAM DDR5 (nowszy sprzęt) - 40-60 GB/s
  • Pamięć VRAM (kości na karcie graficznej) - 400-1000 GB/s 🤩

Są zastosowania w których nic poza VRAM nie ma sensu, natomiast do wielu zadań i automatyzacji rodzaj pamięci może nie mieć wielkiego znaczenia. Opóźnienie rzędu minuty, czy dwóch, w klasyfikacji jednego e-maila jest raczej akceptowalne. Disclaimer - jeżeli chcesz odpalić lokalnie model na VRAM to ten poradnik Ci w tym nie pomoże.

Zaczynamy od Ollamy

Jest wiele sposobów żeby lokalnie uruchamiać modele LLM, ja lubię korzystać z Ollama. To taki Docker-dla-LLM'ów.

Co warto wiedzieć o Ollama:

  • Działa lokalnie, nie potrzebujesz połączenia z internetem jeśli masz już model którego chcesz używać.
  • Ma proste CLI (command line interface) - a więc komunikujemy się z Ollama za pomocą linii poleceń -> nie ma w standardzie graficznego interfejsu, ale jest ich dostępnych cała masa.
  • Wspiera bardzo bardzo wiele modeli LLM, ich pełną listę znajdziesz na stronie.
  • Wystawia "z pudełka" REST API, więc jeśli masz lokalnie odpalonego n8n czy Langflow to bez problemu podepniesz tam Ollama.

Jak zacząć?

  1. Wchodzisz na https://ollama.com/,
  2. klikasz "Download",
  3. wybierasz swój system operacyjny i...
  4. czekasz cierpliwie aż ściągnie się instalator.

Sam proces instalacji jest bardzo prosty, a instalator nie pyta nas w zasadzie o nic...

Strona narzędzia Ollama

Po instalacji Ollama uruchamia się automatycznie "w tle". A więc - nie zobaczysz żadnego okienka ani interfejsu programu, nie dowiesz się nawet, że instalacja przebiegła pomyślnie.

Aby pracować z Ollama musisz, tak jak wspomniałem, korzystać z interfejsu linii poleceń (CLI). Dla mnie jest to standardowy Windows Command Prompt:

  • Start -> Uruchom -> cmd.exe -> Enter, alternatywnie...
  • Klawisz Windows + R -> cmd.exe -> Enter
Command Prompt systemu Windows 10

Natomiast można oczywiście z PowerShell czy Terminalem na macOS. Jak masz Linuxa to tłumaczyć nie muszę 🤐.

Jeśli u Ciebie Ollama nie wystartowała z automatu możesz to zrobisz to komendą:

ollama serve

Jeżeli, tak jak wspomniałem, Ollama już działała w tle, dostaniesz bardzo jasny i klarowny komunikat "Error: listen tcp 127.0.0.1:11434: bind: Only one usage of each socket address (protocol/network address/port) is normally permitted." 😉
Teraz jesteśmy gotowi na pobranie i uruchomienie Deepseek'a - wpisz

ollama run deepseek-r1:8b

i... poczekaj chwilę, Ollama musi pobrać model 8b (a więc nieco ponad 5GB danych) na Twój komputer.

Pobieranie modelu deepseek za pomocą Ollama

No i można zaczynać... kiedy model się ściągnie Ollama da nam znać i uruchomi natychmiast model. Zobacz jak wyglądał przebieg rozumowania Deepseek'a dla prostej wiadomości - "hello":

Deepseek-r1:8b odpowiada na proste "hello"

Nie wiem jak Ty, ale ja jestem pod wrażeniem... 😂 tyle "myślenia" aby dojść do wniosku, że najlepsza odpowiedź to "Hello 👋 How can I help you today?". Jako introwertyk - rezonuję z tym 😉.

Dla nieco trudniejszego zapytania (np. w języku polskim, dotyczącego napisania cold-mail'a B2B) wydajność tego modelu na moim komputerze wyniosła 5 tokenów na sekundę. Token to, w skrócie, całe słowo, jego cześć lub np. znak interpunkcyjny (przyjmuje się często, że 1 token to 0.75 słowa).

Poniżej wspomniany mail 👇, raczej nie będzie "żarło" (chociaż zdarzało się, że dostawałem gorsze) ale jak na coś zrobionego od A do Z przez lokalny model - jest całkiem nieźle.

Deepseek-r1:8b pisze prostego cold-maila

Oczywiście, tak jak wspomniałem - w tle działa gotowe REST API, więc można szybko zapomnieć o pracy z CLI jak jaskiniowiec i połączyć się z modelem przez np. Langflow.

Podsumowując: to oczywiście dopiero początek zabawy w lokalne LLMy, ale mam nadzieję że pobudziłem Twój apetyt. Daj proszę znać w odpowiedzi na tego maila czy podjęłaś/podjąłeś zadanie. Jeżeli chcesz w kolejnym odcinku podejść do tematu wykorzystania lokalnych modeli koniecznie napisz.

DO SPRAWDZENIA

Linki i newsy

1️⃣

Kolekcja Workflow n8n: o n8n już dzisiaj wspominałem, ale jeśli jeszcze nie znasz tego narzędzia to warto się zainteresować. Nie chodzi tu nawet o tworzenie ultra przydatnych automatyzacji - stwórz cokolwiek, wrzuć na LinkedIna screenshot'a i napisz, że podzielisz się tą fantastyczną automatyzacją za lajka, komentarz, follow, zdjęcie na maila i 10 zł blikiem 😊.

A jak chcesz drogę na skróty sprawdź https://n8nworkflows.xyz/ - znajdziesz tam ponad 2300 gotowych do wykorzystania workflow. Są gwiazdeczki, kategorie, opisy - nic, tylko przeglądać i korzystać.

s. o robieniu zasięgów na publikacji swoich workflow n8n przeczytałem niedawno... właśnie na LinkedIn, ale za choinkę nie mogę znaleźć posta aby wspomnieć tutaj, jak nakazuje obyczaj, jego autorkę/autora.

2️⃣

Akademia OpenAI: O OpenAI dzisiaj jeszcze chyba nie pisałem... W każdym razie twórcy ChataGPT uruchomili darmową akademię, w której znajdziesz bardzo dużo soczystych porad i przewodników -> https://academy.openai.com/. Jeżeli, tak jak ja, masz wrażenie, że korzystasz z 3% możliwości swojej subskrypcji za 20$ - wrzuć sobie w kalendarz godzinę albo dwie na Akademię i popracuj nad swoim warsztatem.

3️⃣

Excape hatch: czyli "wyjście ewakuacyjne" w rozmowie z AI może znacznie podnieść jakość konwersacji (zwłaszcza - uniknąć tzw. halucynacji). Posłuchaj krótkiej wypowiedzi na X na ten temat tutaj.

TL;DR? warto w promptach zaznaczyć "Jeśli nie masz wystarczających informacji aby odpowiedzieć na pytanie, zatrzymaj się i dopytaj.". Dodatkowo, w drugiej części filmiku, znajdziesz świetny use case do bardziej zaawansowanych zastosować (automatyzację, wykorzystanie AI w aplikacjach) - moim zdaniem ogień 🔥.

TO LAMBORGHINI MOŻE BYĆ TWOJE...

Rozwój

okładka ksiązki Allan Dib - The 1-Page Marketing Plan

Dzisiaj krótka rekomendacja. The 1-Page Marketing Plan: Get new customers, make more money and stand out from the crowd. Autor: Allan Dib. Polecam w oryginalnej wersji językowej na  audible.co.uk.

Jeśli marketing kojarzy Ci się z chaosem, lansem i przepalaniem budżetu - ta książka to antidotum. Allan Dib proponuje prosty framework: jeden arkusz, dziewięć pól, które prowadzą Cię od "nie znają mnie" do "kupują ode mnie i polecają innym".

✔️ Co mi się spodobało?
Zero lania wody. Konkretne pytania, które zmuszają do refleksji: kogo dokładnie chcesz przyciągnąć, co masz im do zaoferowania i jak to zrobić bez wielkiego zespołu.

🧠 Dla kogo?
Dla każdego, kto buduje swój produkt, usługę czy markę - solo czy w zespole. Nawet jeśli nie jesteś „marketerem”, ta książka pomoże Ci zrozumieć, co działa.

BUILDING-IN-PUBLIC

O newsletterze

Pytacie mnie często w komentarzach od jak dawna.... Nie no, dobra, o nic mnie nie pytacie. Nie będę przed Tobą ukrywał prawdy -najtrwalsze związki buduje się przecież na zaufaniu i transparentności 😎. Czytasz właśnie pierwszy odcinek newslettera Ogarniam Technologię.

Dotrze on do nieco ponad 40 osób. Mam nadzieję, że każdego tygodnia będę tutaj mógł podzielić się coraz ciekawszymi liczbami i statystykami.

Na dzisiaj zakończę krótko - dziękuję że się zapisałaś/zapisałeś. Do usłyszenia w przyszły poniedziałek 🙂.

Udanego tygodnia!

Pozdrawiam
Kuba Jaszczu

kuba jaszczur / ogarniam technologię newsletter

Dołącz do newslettera Ogarniam Technologię 👉

Jeśli chcesz dostawać kolejne edycje na świeżo — zanim trafią tutaj — dołącz do ponad 700 osób, które już ogarniają technologię razem ze mną.

Zero spamu. Możesz wypisać się w każdej chwili.
Poznaj naszą politykę prywatności.