Archiwum / Newsletter 5

Jak rozmawiać z LLM? Ekspresowy kurs promptowania 💬

Cześć,

Z tej strony Kuba. Dzisiaj wracamy do tematu skutecznego wykorzystania sztucznej inteligencji. Jak zawsze jestem super ciekawy, czy to, co tu dzisiaj znajdziesz, jest dla Ciebie do wykorzystania. Będę bardzo wdzięczny za każdy komentarz, a jeżeli rzeczywiście uznasz to za wartościowy materiał — podziel się newsletterem z chociaż jedną osobą, która również może na nim skorzystać 🙏. Wystarczy, że prześlesz ten link 👉 ogarniam.tech. Dziękuję!

A teraz do rzeczy, co znajdziesz w dzisiejszym odcinku:

  • Insight: Jak rozmawiać z LLM, czyli ekspresowy kurs promptowania
  • Do sprawdzenia: Paczka narzędzi do Windowsa, Workout w stylu open-source i Gemini CLI
  • Rozwój: Nie wiem, coś o ptakach, nie czytałem….

Zaczynamy 🙂

Dołącz do newslettera Ogarniam Technologię 👉

Jeśli chcesz dostawać kolejne edycje na świeżo — zanim trafią tutaj — dołącz do ponad 700 osób, które już ogarniają technologię razem ze mną.

Zero spamu. Możesz wypisać się w każdej chwili.
Poznaj naszą politykę prywatności.

INSIGHT

Jak rozmawiać z LLM, czyli ekspresowy kurs promptowania

Nie wiem, z jakiego “AI” korzystasz, ale jest spora szansa, że nie wykorzystujesz pełni jego potencjału. Modele językowe odpowiedzą nam na każde zapytanie, niezależnie od tego, jak dobrze je przygotuje. W rezultacie, ponieważ odpowiedź zazwyczaj jest „OK” łatwo popaść w rutynę i przyzwyczaić się do umiarkowanej jakości.

Musisz jednak wiedzieć, że z AI można wyciągnąć znacznie, znacznie więcej. Jeżeli nie chcesz bawić się w zaawansowane techniki — największy zwrot z inwestycji przyniesie Ci właśnie dobre opanowanie promptu. I, dla jasności, pewnie nie przedstawię tutaj jakichś niesamowitych „hacków”, czy sztuczek. Chciałbym raczej dać Ci systemowe podejście, które można zastosować do każdej rozmowy czy zapytania. Absolutne podstawy, których nie wykonuje 90% użytkowników modeli LLM. Jeżeli je opanujesz, będziesz w czołówce.

Co to jest prompt?

Prompt to treść, którą wpisujesz do swojego modelu AI – jedno zdanie, pytanie albo rozbudowana instrukcja z kontekstem i wymaganiami. To dokładnie mówi modelowi, co ma zrobić (np. „Stwórz listę 5 pomysłów na kampanię”, „Wyjaśnij fotosyntezę prostym językiem”).

Jak działa model językowy (LLM)?

Na starcie — warto sobie przypomnieć, jak w zasadzie działają modele językowe. Są to maszyny statystyczne, których jedynym zadaniem jest przewidywanie kolejnego tokenu. Nie rozumie kontekstu tak jak człowiek — po prostu zamienia prompt na tokeny a tokeny na liczby, które później „przepuszcza” przez warstwy transformera (Transformer to ta literka „T” w GPT) i zwraca rozkład prawdopodobieństwa kolejnych tokenów. 

Trochę jak Ty, kiedy czytając ten tekst, zaczynasz powoli domyślać się, jakie będzie ostatnie słowo tego …………. zdania 😉.

Następnie – zgodnie z ustalonymi parametrami generowania – wybiera ten o najwyższej (lub wystarczająco wysokiej) szansie i dokleja go do wypowiedzi, po czym cały proces powtarza się dla następnego tokenu.

Token to kilka znaków lub całe słowo. Dla języka angielskiego przyjmuje się, że 1 token = 0,75 słowa, i dla większości modeli to właśnie język angielski jest najbardziej efektywny. W języku polskim można przyjąć, że token to ~0,5 słowa, bo same słowa są dłuższe, a do tego dochodzą dodatkowe znaki diakrytyczne. To tylko na marginesie, ale jeżeli pracujesz z automatyzacjami i zależy Ci na optymalizacji wykorzystania dostępnych w subskrypcji limitów — warto stosować język angielski dla zadań „wewnętrznych” (np. agent-recenzent oceniający przydatność artykułu dla czytelników newslettera) a dopiero na koniec (np. ostatni agent zajmujący się formatowaniem tekstu, pisaniem postu na social media) prosić o odpowiedź w języku polskim.

Może o tym nie wiesz, ale poza Twoim zapytaniem, model bierze także pod uwagę:

  • Prompt systemowy — czyli ukryta instrukcja od twórców modelu, która narzuca mu ogólne zasady, np. zgodność z polityką, pytania, na które ma nie odpowiadać czy podstawowe cechy jak uprzejmość, pomocność.
  • Historia rozmów — w zależności, od którego modelu używasz, limitu kontekstu, poziomu subskrypcji, czy ustawień na poziomie konta, projektu, etc. - model może brać pod uwagę wcześniejsze rozmowy z bieżącego czatu lub innych rozmów.
  • Dokumenty, które załączysz do zapytania, czy rezultaty działania dodatkowych narzędzi (większość modeli może np. przeszukać sieć, dodając wyniki wyszukiwania do kontekstu)
  • Ustawienia generowania — parametry takie jak temperatura, max tokenów, top-p, top-k, i inne — które wpływają na poziom „kreatywności” i długość odpowiedzi. Korzystając z wbudowanych „czatów” często nie mamy do nich dostępu. Jeżeli łączymy się z modelami przez API (tworząc automatyzacje), często możemy je modyfikować. 

Halucynacje

Warto dodać, że modele w tym wszystkim nie są nieomylne. Zdarza się im generować, z pełnym przekonaniem, odpowiedzi powierzchownie prawidłowe i wiarygodne, ale faktycznie — błędne i nielogiczne. Potocznie nazywamy to halucynacjami.

Halucynacje modeli LLM

Halucynacje nasilają się przy zbyt kreatywnych ustawieniach (wysokie temperature), nieprecyzyjnych promptach albo gdy zadanie wymaga wiedzy spoza czasu treningu modelu. Skuteczne prompty pozwalają znacząco ograniczyć ich występowanie. Jak ograniczyć halucynacje:

  • Przede wszystkim — skuteczny prompt, z pełnym kontekstem i precyzyjną instrukcją (o tym dzisiaj)
  • Proś o źródła i cytaty oraz weryfikuj je ręcznie (nie zakładaj, że dobrze wyglądająca referencja jest poprawna — tak jak w tworzeniu treści, AI bywa też kreatywna w zmyślaniu źródeł, na które się powołuje.
  • Bazy wiedzy (tzw. RAG - retrieval-augumented generation), które są nieco bardziej zaawansowanym tematem, ale mam nadzieję, że do niego powrócimy. Przydaje się zwłaszcza wtedy, gdy mamy duży zbiór wiedzy, która nie jest publiczna, lub jest na tyle szczegółowa, że prawdopodobnie nie została w całości uwzględniona w treningu modelu.
  • Obniżanie temperatury (zaawansowane) i długości odpowiedzi (proste)
  • Stosowanie techniki chain-of-thought, one-shot, multi-shot - o tym również będzie więcej

Prompt engineering

Prompt engineering to proces projektowania skutecznych promptów, które pozwalają uzyskać od modeli językowych odpowiedzi precyzyjne, spójne i dopasowane do naszego use case’u. W zależności od zadania można stosować różne techniki – od nadania modelowi konkretnej roli („Jesteś analitykiem danych…”), przez określenie formatu odpowiedzi, aż po dodanie przykładowych danych wejściowych. Te zabiegi potrafią znacząco podnieść jakość odpowiedzi.

Kluczowe jest podejście iteracyjne: warto testować różne warianty, porównywać wyniki, dopracowywać prompty krok po kroku. Eksperymentując i ucząc się na wynikach, można wypracować własny warsztat – zestaw sprawdzonych szablonów, które przyspieszają pracę i gwarantują spójność w kolejnych zadaniach. Polecam Ci, abyś zaczęła/zaczął pracować nad takimi szablonami, zwłaszcza dla najczęściej powtarzanych zadań.

To szczególnie ważne w kontekście automatyzacji i tworzenia agentów AI. W takich scenariuszach nadzór człowieka nad każdym wywołaniem modelu jest minimalny, dlatego dobrze zaprojektowany prompt staje się kluczowym elementem niezawodności całego procesu. Solidne prompty działają jak instrukcja obsługi – im lepsza, tym mniejsze ryzyko błędów i tym większa skuteczność systemu.

Dokumenty wspomagające dla AI

Oprócz dobrze zaprojektowanego promptu warto tworzyć dodatkowe dokumenty, które mogą być załączane do kolejnych wywołań modelu. Przykład? Sam stworzyłem opis profilu czytelnika newslettera – gdzie tak precyzyjnie, jak potrafię, opisałem: kim jest, czego szuka, jakim mówi językiem, jakie ma problemy i wyzwania, jakie ma kompetencje, czego należy unikać itd… Mój dokument jest dosyć długi i wracam do niego często, aktualizując go i zmieniając priorytety.

Dzięki takim załącznikom można zapewnić spójność odpowiedzi w kolejnych rozmowach, bez konieczności powtarzania tego samego kontekstu w każdym promptcie. 

Możesz go stworzyć np. jako plik tekstowy (.txt), chociaż, jeżeli chcesz nadać informacjom wagi a całemu dokumentowi struktury, polecam format Markdown. Jest to prosty, przejrzysty i łatwy do nauki format, który jest bardzo czytelny — zarówno dla nas, jak i dla AI. Plik w formacie Markdown to zwykły plik tekstowy, wzbogacony o kilka  „markerów”, które nadają mu struktury. Polecam Ci ekspresowe wprowadzenie do formatu Markdown, w postaci interaktywnego tutoriala, dostępne w języku polskim. Obiecuję, że opanujesz podstawy kilka minut, a do swojego warsztatu będziesz mogła/mógł dodać kolejną, cenną umiejętność.

Odnośnie do automatyzacji — baza wiedzy w postaci dokumentu Markdown może być tutaj ograniczeniem albo kosztownym elementem procesu (ze względu na ilość tokenów konsumowanych na wejściu). Dopóki nie odbijesz się od ściany kontekstu lub nie zaczniesz przekraczać budżetu tokenów — nie ma problemu. Później — wchodzisz w RAG lub inne, zaawansowane metody…

Jak tworzyć skuteczne prompty?

Oooffff… miało być krótkie wprowadzenie, wyszło jak zawsze 😄. 

Wierzę, że te podstawy okażą się dla Ciebie przydatne, a teraz — przechodzimy do konkretnych porad i przykładów skutecznych promptów. Szablon, który chciałbym Ci zaproponować, to sprawdzony i opisany w wielu przewodnikach kwartet:

  • Persona — w jaką rolę ma wcielić się AI
  • Zadanie — co dokładnie chcemy uzyskać
  • Kontekst — dodatkowe informacje, które podniosą jakość odpowiedzi
  • Format — jak ma wyglądać odpowiedź

Taką strukturę proponuje m.in. Google, w swoim opracowaniu Gemini for Google Workspace / Prompting Guide 101. Warto zaznaczyć, że porady dotyczące promptów, które znajdziemy w dokumentach przygotowanych przez rozmaite laby, dla swoich modeli LLM (np. Właśnie Google, Anthropic, OpenAI, Meta, X, etc..) są zazwyczaj uniwersalne i zadziałają z każdym modelem językowym.

Poradnik o promptowaniu od Google - Prompting Guide 101

Google we wspomnianym opracowaniu podaje, że optymalne rezultaty zaczynamy uzyskiwać w przypadku promptów o długości 21 słów. Większość promptów ma tymczasem poniżej 9 słów. Inna cenna obserwacja — promptowanie, to umiejętność, której można się nauczyć. Nie musisz być prompt engineerem, by skutecznie wykorzystywać generatywne AI.

W tym opisie podam Ci kilka przykładów wykorzystujących powyższą strukturę, bazujących właśnie na opracowaniu od Google.

Przykład 1 - Artykuł na stronę

Zastosowanie tej struktury do przykładowego zadania może wyglądać następująco:

Jesteś ekspertem w dziedzinie SEO oraz AI. Napisz krótki artykuł, z poprawną i przemyślaną strukturą, na stronę Ogarniam Technologię, dotyczący wykorzystania modeli językowych w Social Media. Wykorzystaj profil czytelnika newslettera [załącznik] aby odpowiednio dostosować poziom i treść. Cały artykuł powinien mieć ok. 1500 słów, unikaj tabel, ogranicz ilość list do minimum, nie stosuj emotek.

Mamy tu więc:

  • Persona: Jesteś ekspertem w dziedzinie SEO oraz AI
  • Zadanie: Napisz krótki artykuł, z poprawną i przemyślaną strukturą, na stronę Ogarniam Technologię, dotyczący wykorzystania modeli językowych w Social Media.
  • Kontekst: Wykorzystaj profil czytelnika newslettera [załącznik] aby odpowiednio dostosować poziom i treść.
  • Format: Cały artykuł powinien mieć ok. 1500 słów, unikaj tabel, ogranicz ilość list do minimum, nie stosuj emotek.

Jeżeli chcesz zobaczyć podobne rozbicie dla kolejnych promptów, odsyłam do opracowania Google / Prompting Guide 101.

Komentarz: Do takiego promptu załączamy właśnie wspomniany dokument doprecyzowujący kontekst, np. W formacie Markdown. Rezultat zapytania z mojej perspektywy idealny nie jest, ale dużo bardziej trafny niż odpowiedź na zapytanie „Napisz artykuł na stronę o modelach językowych w social media”.

Przykład 2 - Planowanie spotkań i wydarzeń

Wiem, że są wśród Was wykładowcy akademiccy, nauczyciele i pracownicy administracji. Dobry prompt może Wam znacznie ułatwić prace nad koncepcją i organizacją wydarzeń. Poniżej przykładowa konwersacja, która pokaże Wam, jak to zrobić (na bazie jednego z przykładów z opracowania Google).

Jestem Kierownikiem Administracji dla Dyrektora Wydziału. Przed rozpoczęciem roku akademickiego, nasz zespół pracowników administracji, Rady Wydziału i szefów jednostek badawczych spotyka się na dwudniowym wyjeździe. Zaplanuj czynności na oba dni, które będą uwzględniały budowanie zespołu i czas na głębszą, strategiczną pracę. Stwórz dla mnie prostą agendę.

To zapytanie zawiera wszystko, co potrzeba, aby rozpocząć proces planowania. Jeżeli chcesz np. Pomyśleć o dodatkowych aktywnościach integracyjnych, może dodać:

Zaproponuj trzy aktywności integracyjne, które pomogą w team-buildingu i zachęcą uczestników do poznania innych członków zespołu, ich preferowanego sposobu pracy, silnych stron i celów. Upewnij się, że te aktywności zapewnią odpowiednią aktywizację i zaangażowanie, i są dostosowane do grupy 20 osób, do wykonania w 30 minut lub mniej.

Jeżeli rezultat będzie OK, idziemy dalej:

Zorganizuj całą agendę, w formacie tabeli, dodaj po jednej ze wspomnianych aktywności integracyjnych każdego dnia.

Na koniec, wisienką na torcie — rezultat (tabelę lub wyeksportowany z Czata dokument) wklejasz do kolejnego promptu, i dodajesz:

Użyj agendy dwudniowych warsztatów z załącznika, aby wygenerować podsumowanie na potrzeby przemowy otwierającej warsztaty.

🤯🤯🤯

Bardzo polecam, abyś planując kolejne wydarzenie, spotkanie czy seminarium spróbował/a zastosować ten schemat. I będę super wdzięczny, jeśli dasz znać, jak poszło 😊.

Technika Chain-of-Thought (CoT)

Być może widziałaś/eś śmieszne memy, pokazujące, jak kiepsko te (mające zabrać nam pracę) LLM-y radzą sobie z matematyką ;). Wynika to oczywiście z fundamentalnych założeń leżących u podstaw modeli i rzeczywiście, bez odpowiednich narzędzi dostępnych dla modelu, mogą być wyzwaniem. 

Technika Chain-of-Thought bywa w takich przypadkach pomocna i pomaga dojść do właściwego rezultatu. Może być również użyta wszędzie tam, gdzie duże znaczenie ma logika (np. łamigłówki, problemy, etc..). CoT wymaga bardzo niewiele pracy — wystarczy dodać w promptcie wymaganie, aby LLM opisał dokładnie każdy krok procesu, dążąc do zadanego rezultatu. W praktyce może to być tak absurdalnie proste, jak dodanie `“przeanalizuj to, krok po kroku”` o zapytania.

Technika Zero-Shot, One-Shot, Multi-Shot

Brzmi super zaawansowanie? 😂 w rzeczywistości ultra prosta koncepcja:

  • Zero-Shot, to to, co zapewne wszyscy robimy najczęściej. Czyli prompt bez przykładów.
  • One-Shot - prompt gdzie dodajemy jeden przykład pytania i prawidłowej odpowiedzi, aby naprowadzić model LLM na właściwy tok. 
  • Multi-shot, jak się zapewne domyślasz, dajemy więcej przykładów.

W praktyce — jak może wyglądać One-Shot?

Oceń przydatność załączone artykułu dla czytelnika newslettera Ogarniam Technologię.
Przykład:
OpenAI „rekalibruje” politykę wynagrodzeń w odpowiedzi na podbieranie pracowników przez Meta.
Odpowiedź w JSON:
{  
    “Usability”: “0”,
    “Motivation”: “Artykuł dotyczy wynagrodzeń w OpenAI, nie zawiera praktycznych porad”
}

Kiedy to się przydaje? Jest super ważne w przypadku tworzenia agentów AI, jeżeli spodziewamy się odpowiedzi np. W formacie JSON, i potrzebujemy konkretne atrybuty (konkretnych typów) w odpowiedzi. Osobiście nie stosuję One-Shot ani Multi-Shot nigdzie poza właśnie automatyzacjami.

Technika Step-Back

Na koniec, jeszcze jedna bardzo przydatna technika. Zwłaszcza w pracach koncepcyjnych, strategii, planowaniu itp.. Chodzi o zrobienie kroku wstecz względem swojego pierwszego zapytania. To pozwala LLM-owi “aktywować” właściwe obszary wiedzy i uwzględniać je w późniejszych odpowiedziach. Rozumiejąc szerszy kontekst, LLM może generować bardziej trafne i prawidłowe odpowiedzi.

Napisz ciekawy opis przydatnego narzędzia dla newslettera technologicznego, który skupia się na praktycznych i łatwych do wdrożenia poradach.

Z odpowiedzią może być różnie — w zależności od tego, gdzie zaprowadzi nas statystyka, możemy trafić na średnio przydatne pomysły. Spróbujmy zatem zrobić krok wstecz:

Na podstawie najpopularniejsze media społecznościowe poświęcone self-hostingu i oprogramowaniu open-source - jakie są największe obszary, gdzie profesjonaliści i przedsiębiorcy mogą uzyskać zaskakująco cenne wsparcie, ze strony narzędzi open-source.

Teraz dajemy to podsumowanie w kolejnym promptcie i dodajemy:

Wybierz najciekawszy z obszarów i stwórz krótki artykuł, który przedstawi i opisze jedno z topowych narzędzi open-source w tym obszarze.

Powiem krótko — sprawdziłem, działa 😎.

Podsumowanie

OK wyszło tego sporo. Znacznie więcej niż planowałem 😄. Mam nadzieję, że uda Ci się to wykorzystać. Gwarantuję, że jeśli choć kilka technik się u Ciebie “przyklei”, i zaczniesz z nich aktywnie korzystać, będziesz w top 10% użytkowników AI.

DO SPRAWDZENIA

Linki i newsy

🛠 Microsoft PowerToys

Wiem, że część z Was pracuje na MacOS (sam, być może niedługo, dołączę do tego grona), ale dla pozostałych, którzy pracują na Windowsie, mam mega przydatną wskazówkę. Jeżeli jeszcze nie korzystasz — zainstaluj sobie Microsoft PowerToys

Microsoft PowerToys

To zestaw dodatkowych funkcjonalności, które niesamowicie podnoszą produktywność i zastępują masę dodatkowych narzędzi i programików. W PowerToys znajdziesz, między innymi:

  • FancyZones — daje możliwość podziału ekranu na predefiniowane sekcje, do których później możesz „przypisać” okna, przenosząc je z przytrzymanym klawiszem Shift. Super przydatna funkcjonalność.
  • Color Picker — proste, ale również często używam. Skrót klawiszów Win + Shift + C pozwoli Ci sprawdzić kolor dowolnego elementu na ekranie. 
  • Mouse utilities — bardzo przydatne przy spotkaniach na Teamsie, kiedy dzielisz się ekranem. Możesz np. dodać zaznaczenie pojawiające się na ekranie po kliknięciu myszką. 
  • Environment Variables — jeżeli kiedykolwiek musiałaś/eś pracować ze zmiennymi środowiskowymi w Windows, wiesz, że nie jest to super intuicyjny proces. Dzięki Environment Variables masz pełen podgląd na bieżące zmienne i możesz je w prosty sposób edytować.

W całym zestawie znajdziesz blisko 30 narzędzi i usprawnień — część z nich dla bardziej technicznych użytkowników, ale większość przyda się każdemu profesjonaliście, który chce usprawnić i przyśpieszyć swoją pracę z Windowsem.

⏰ Workout.cool

Trochę z innej beczki — sprawdź workout.cool. To platforma do monitorowania treningów, na licencji open-source. Możesz korzystać z konta na stronie, możesz natomiast wejść na GitHuba, pobrać kod źródłowy, i uruchomić workout.cool na swoim własnym sprzęcie — nie płacąc licencji i nie tracąc kontroli nad danymi. 

Jeśli działasz w branży fitness — to może być także super platforma do wdrożenia dla monitorowania postępu Twoich podopiecznych. 

Aplikacja open source workout.cool

Gemini CLI

Wracamy do Google. Jak być może wiesz, flagowy LLM Google to Gemini. Obecnie topowym modelem Gemini jest 2.5 Gemini Pro….

Google uruchamia Gemini CLI

Z zupełnie niezwiązanych newsów — Google wypuściło, 4 dni temu Gemini CLI — czyli dostęp do modeli Gemini za pośrednictwem Command Line Interface, tak zwanego terminala. I wiem, nie jest to środowisko dla każdego, ale jeżeli masz chociaż trochę wprawy w terminalu, to warto spróbować. Przede wszystkim dlatego, że wraz z Gemini CLI (które jest, na marginesie, open-source) dostajesz też darmowy (no, musisz mieć konto Google)  dostęp do bardzo zacnej ilości konwersacji z Gemini 2.5 Pro.

Jeżeli jeszcze nie korzystasz z płatnych modeli albo jesteś wciąż “tylko na” ChatGPT — zdecydowanie warto spróbować. A może, przy okazji, przekonasz się do terminala? 

TO LAMBORGHINI MOŻE BYĆ TWOJE...

Rozwój

Ilustracja wygenerowana w ChatGPT do krótkiego wpisu o ksiązce Czarny Łabędź Nassima Nicolasa Taleba

Dzisiaj wracam do Ciebie z książką, którą kilka lat temu polecił mi Tata. Czarny łabędź. Jak nieprzewidywalne zdarzenia rządzą naszym życiem, to bestsellerowa książka o nieprzewidywalności, autorstwa Nassima Nicolasa Taleba.

Taleb pokazuje, że największy wpływ na rzeczywistość mają zjawiska rzadkie, zaskakujące i nieprzewidywalne – czyli tytułowe „czarne łabędzie”. Dopiero po fakcie próbujemy je tłumaczyć, tworząc złudzenie, że „to było do przewidzenia”.

Książka stała się światowym bestsellerem, weszła do kanonu współczesnego myślenia o ryzyku i niepewności – jest cytowana przez inwestorów, przedsiębiorców, ekonomistów i filozofów. Dla wielu była „mind openerem”, który zmienił sposób postrzegania świata – zwłaszcza po kryzysie 2008.

Jest to mieszanka anegdot, filozofii, statystyki i zgryźliwych uwag autora pod adresem akademików, dziennikarzy i ekspertów. Taleb nie jest łatwy w odbiorze (ma równie spore grono fanów, jak i krytyków) – bywa zarozumiały i prowokacyjny – ale właśnie to sprawia, że Czarny Łabędź zostaje w głowie na długo. Nawet jeśli z częścią tez się nie zgodzisz, zmuszą Cię one do myślenia.

Dlaczego warto przeczytać:

  • Taleb podważa to, co wielu uznaje za „zdrowy rozsądek” – i robi to skutecznie.
  • Pomaga zbudować zdrowy sceptycyzm wobec prognoz, danych i „eksperckiej pewności”.
  • Uczy myśleć w kategoriach niepewności, ryzyka i… pokory.

Sam przesłuchałem  „The Black Swan”, standardowo — w wersji audio, w języku angielskim, jakieś 3 razy. Do pozostałych publikacji Taleba, jak chociażby „Antifragile”, czy „Skin in the game” pewnie wrócę w kolejnych odcinkach 😉.

BUILDING-IN-PUBLIC

O newsletterze

Czytasz właśnie piąty odcinek newslettera Ogarniam Technologie. Przede mną wciąż masa zadań do zrobienia, aby newsletter rósł, a każda edycja dawała Wam maksymalną wartość. Z rzeczy, których jeszcze nie ogarnąłem, wspomnę chociażby o:

  • Kanałach social media (obecnie Facebook i Instagram), na które nie wrzucam niestety regularnie nowych treści. Mam plan, aby przynajmniej część procesu zautomatyzować. Jak mi się uda za to zabrać, podzielę się z Wami swoim przepisem — wiem, że wielu z Was stoi przed podobnym wyzwaniem.
  • Kanał YouTube, który miał wystartować w ubiegłym tygodniu, ale na to również zabrakło czasu 😉. Kto wie, może ten tydzień coś zmieni — ale obiecywać już nie będę.
  • Wyszukiwanie i kuracja treści, które mogą Was zainteresować. Obecnie robię to wciąż „ręcznie”, a jak wiadomo jest to bardzo wdzięczny obszar do automatyzacji.
  • Archiwum newsletterów na stronie (dziękuję za sugestię)

Od ostatniego tygodnia nie wprowadziłem znaczących usprawnień, poza poprawieniem kilku drobnych błędów na stronie (dziękuję za feedback), i dalszej automatyzacji procesu przenoszenia treści newslettera z dokumentu Google Docs do gotowego szablonu wiadomości w formacie .html (dla MailerLite).

Piąta edycja newslettera dotrze do ok. 520 osób. Dziękuję, że jesteś wśród nich i dalej czytasz 🙏. Zgodnie z tradycją, zapraszam Cię także do podzielenia się swoimi uwagami dotyczącymi tej edycji newslettera. Każdy mail, który dostaję, to dodatkowa motywacja i energia do tworzenia coraz lepszych treści. Na każdy odpisuję i za każdy serdecznie dziękuję 🥰.

To wszystko na dziś, do usłyszenia w kolejnym tygodniu!

Pozdrawiam
Kuba Jaszczu

kuba jaszczur / ogarniam technologię newsletter

Dołącz do newslettera Ogarniam Technologię 👉

Jeśli chcesz dostawać kolejne edycje na świeżo — zanim trafią tutaj — dołącz do ponad 700 osób, które już ogarniają technologię razem ze mną.

Zero spamu. Możesz wypisać się w każdej chwili.
Poznaj naszą politykę prywatności.