Rozbudowany blog z ogromną liczbą artykułów to dla e-commerce niesamowity potencjał pod kątem SEO, ale także sporo wyzwań związanych z zarządzaniem treścią, tworzeniem silosów tematycznych i linkowaniem wewnętrznym. Dla SMYKa – jednego z najpopularniejszych sklepów z artykułami dla dzieci – przeprowadziliśmy szczegółową analizę i wykonaliśmy linkowanie dla ponad 1 000 artykułów, angażując do tego AI, automatyzację i autorskie skrypty. Jak podeszliśmy do scrapowania, embedowania wektorowego i analizy semantycznej, ile godzin udało się oszczędzić i jaki był tego efekt dla SEO i UXu? O tym piszemy w poniższym Case Study.
Sytuacja wyjściowa
Klient: SMYK, jeden z najpopularniejszych sklepów z artykułami dziecięcymi, który posiada rozbudowany e-commerce i własną sieć prawie 300 sklepów stacjonarnych.
Główne wyzwanie: Pełne wykorzystanie potencjału linkowania wewnętrznego, przy aktualnej bazie ponad 1 000 artykułów na blogu.
Zastosowane rozwiązanie: Automatyzacja procesu linkowania wewnętrznego i dopasowanie tematyczne powiązanych treści z użyciem autorskiego algorytmu oraz AI.
Efekt: Spójna, równomiernie rozłożona struktura linków, optymalizacja pełnej bazy treści, wzrost potencjału SEO, poprawa UX, łatwiejszy dostęp do treści dla użytkowników zainteresowanych wybraną tematyką.

Tło projektu
SMYK to bezsprzecznie jedna z najbardziej rozpoznawalnych marek w Polsce i pierwszy wybór dla wszystkich, którzy szukają prezentów dla najmłodszych. Jest obecny w prawie 300 lokalizacjach stacjonarnych w Polsce, Ukrainie i Rumunii, a także posiada rozbudowany e-commerce z kilkuset tysiącami produktów dla niemowląt, dzieci, nastolatków i ich rodziców. SMYK nie tylko przykłada ogromną uwagę do zróżnicowania i dostępności swojej oferty, ale także prowadzi szeroko zakrojone działania marketingowe w modelu omnichannel, angażując do tego kanały offline, tradycyjne media i digital.
W MBridge wspieramy smyk.com w różnych obszarach online od 2017 roku, a jednym z kluczowych jest rozbudowana strategia SEO. Współpracując ze SMYKiem na przestrzeni lat, stworzyliśmy wspólnie bogatą sekcję blogową, która obecnie zawiera ponad 1 000 artykułów widocznych na frazy z różnych etapów lejka. Stale jednak szukamy przestrzeni do wzrostów w SEO i udoskonalamy nasze działania, a tym razem okazję do wzmocnienia widoczności bloga zauważyliśmy w efektywnym linkowaniu wewnętrznym.
Na smyk.com wpisy blogowe umieszczone są w sekcji Porady. Każdemu wpisowi towarzyszą dwa boxy z powiązanymi artykułami, które są widoczne w dwóch miejscach na stronie: w kolumnie “Powiązane artykuły” po lewej stronie treści oraz w karuzeli pod artykułem.


Po analizie bloga nasi eksperci wskazali główne obszarów do optymalizacji:
- Większe zagospodarowanie miejsca na linki
Część artykułów nie posiadała odnośników do innych treści, a przy określonych wpisach w boxach czy karuzelach pozostawało jeszcze miejsce do wykorzystania. - Wzrost spójności tematycznej
Niektóre wpisy prowadziły do treści powiązanych ogólną kategorią, podczas gdy na blogu istniały artykuły pogrupowane w węższych silosach tematycznych. - Ręczny charakter działań
Aktualizowanie tak rozległej bazy treści ręcznie byłoby narażone na liczne błędy, np. zbyt częste wykorzystanie wybranych URLi.
Optymalizacja tej bazy bez wsparcia automatyzacji i sztucznej inteligencji byłaby niezwykle czasochłonna. Dzięki odpowiednim rozwiązaniom możliwe było usprawnienie tego procesu, a tym samym:
- Redukcja kosztów operacyjnych,
- Możliwość bardziej efektywnego wykorzystania zasobów na inne działania,
- Zwiększenie widoczności, budowanie świadomości SMYKa, co ma na celu docelowo poprawę wyników sprzedażowych.

8-punktowy plan działania

Nasi eksperci opracowali strategię budowy tzw. silosów tematycznych poprzez kontekstowe dopasowanie wszystkich artykułów. Kluczowym wyzwaniem było usystematyzowanie ponad 1 000 wpisów blogowych oraz maksymalizacja użycia dwóch wyznaczonych sekcji. Po zdiagnozowaniu obszarów do optymalizacji i zdefiniowaniu celów przystąpiliśmy do opracowania konkretnych rozwiązań technologicznych i wdrożenia ich w ramach logicznego procesu.
Efekty tych działań możemy podsumować w formie ośmiopunktowego planu:
1. Analityka internetowa: diagnozujemy problem
Zanim przystąpiliśmy do wdrożenia rozwiązań opartych na sztucznej inteligencji, przeprowadziliśmy szczegółową analizę istniejącej struktury linkowania.
Nasi eksperci zidentyfikowali artykuły, które nie były w ogóle linkowane, a także te, w których linki prowadziły do tematów niepowiązanych z treścią.
2. Scrapowanie treści: gromadzimy dane
Aby móc przeanalizować tak dużą liczbę wpisów, potrzebowaliśmy zautomatyzowanego sposobu pozyskania wszystkich tekstów ze strony. Wykorzystaliśmy do tego język programowania Python wraz z biblioteką BeautifulSoup.
Co to jest scrapowanie?
To proces automatycznego „czytania” strony internetowej przez skrypt, który przechodzi przez poszczególne podstrony, pobierając z nich istotne elementy (np. tytuł, treść, datę publikacji).
Dlaczego było to potrzebne?
Ręczne kopiowanie treści do analizy przy ponad tysiącu artykułów byłoby niewykonalne w rozsądnym czasie. Scrapowanie pozwoliło w ciągu zaledwie kilku godzin utworzyć bazę danych zawierającą komplet informacji o każdym wpisie.
3. Embedowanie wektorowe: Machine learning w akcji
Embedding to technika z zakresu uczenia maszynowego. Machine learning wchodzi w skład możliwości, jakie daje nam sztuczna inteligencja i bazuje na danych i algorytmach do tworzenia przewidywań. Zebrane teksty zostały więc poddane przetwarzaniu wektorowemu z wykorzystaniem modelu text-embedding-3-large od OpenAI.
Na czym to polega?
Wyobraźmy sobie, że każdy artykuł jest przekładany na zestaw liczb (tzw. wektor). Wektor odzwierciedla najważniejsze cechy treści, w tym kontekst i semantykę – czyli to, o czym tak naprawdę mówi dany wpis.
Co nam to daje?
Dzięki reprezentacji w postaci liczb możemy matematycznie określać, jak bardzo dany artykuł jest podobny do innego. Nawet jeśli nie używają dokładnie tych samych słów kluczowych, model potrafi rozpoznać, że teksty są zbliżone tematycznie (np. oba artykuły mówią o pielęgnacji niemowląt, choć używają nieco innego słownictwa).
4. Zapis treści do bazy danych: technologiczny plac zabaw
Aby móc szybko porównywać wektory i zarządzać całą infrastrukturą danych, zastosowaliśmy relacyjną bazę PostgreSQL z dodatkiem pgvector.
Dlaczego takie rozwiązanie?
Oprócz klasycznego przechowywania informacji (tytuł, data publikacji itp.), potrzebowaliśmy również miejsca na wspomniane wektory. Pgvector to rozszerzenie PostgreSQL, które pozwala na zapis i sprawne wyszukiwanie podobnych treści przy użyciu zapytań SQL. Dzięki temu wszystkie dane i wektory znajdują się w jednym spójnym środowisku, co ułatwia analizę i obniża ryzyko błędów.
5. Analiza semantyczna: punkt kulminacyjny
Aby automatycznie zidentyfikować najlepiej pasujące do siebie artykuły, posłużyliśmy się miarą cosinusową podobieństwa (za pomocą algorytmu cosine_similarity z bibiloteki scikit-learn w Pythonie), która oblicza wartość cosinusa kąta pomiędzy dwoma wektorami.
Wektor to liczbowa reprezentacja każdego wpisu. Im wyższa wartość miary podobieństwa (np. cosine similarity), tym bliższe tematycznie są dwa artykuły. Wystarczy powiązać je linkiem wewnętrznym, by stworzyć tak zwane silosy tematyczne.
Przypominamy! 📣
Co to jest analiza semantyczna?
To metoda, dzięki której możemy zrozumieć nie tylko pojedyncze słowa, ale też cały przekaz artykułu. W tym przypadku dwa leżące w małej odległości od siebie wektory oznaczają, że treści są bliskie znaczeniowo.
Dlaczego akurat cosinus?
W dużym uproszczeniu – patrzymy na kąt pomiędzy wektorami opisującymi artykuły. Im mniejszy kąt, tym większe podobieństwo. Co ważne cosine similarity liczy tylko kąt, więc różnice w długości wektorów (np. wynikające z długości artykułów) nie zniekształcają pomiaru zbieżności tematycznej.
Co z efektem?
Dzięki temu lepiej wiemy, które wpisy łączyć ze sobą, aby użytkownik, czytając jeden artykuł, mógł łatwo przejść do innego o podobnej, uzupełniającej tematyce. Tym samym zwiększamy szansę, że użytkownicy znajdą interesujące ich treści w ramach bloga SMYKa, a nie na stronach konkurencji.
6. Opracowanie algorytmu penalizującego zbyt częste powtórzenia
Jednym z wyzwań przy dużej liczbie treści jest nieustanne „faworyzowanie” tych samych artykułów. Jeśli pojedynczy wpis okazał się tematycznie zbliżony do wielu innych, mógłby się pojawiać w linkach tak często, że pozostałe treści zostałyby zepchnięte na dalszy plan.
Autorski algorytm wprowadza tzw. mechanizm penalizacji, który obniża priorytet tych artykułów, które są rekomendowane zbyt często.
Dlaczego to ważne?
Zapobiega to tworzeniu się tzw. wąskich gardeł w strukturze linków i zapewnia równomierny rozkład linkowania – daje „drugie życie” starszym czy mniej popularnym wpisom.
Jaki uzyskujemy efekt?
Użytkownicy otrzymują różnorodne propozycje, a serwis wzmacnia pozycjonowanie wielu wartościowych treści, nie tylko kilku najbardziej oczywistych.
7. Generowanie rekomendacji linkowania: chwila prawdy
Łącząc informacje z analizy semantycznej i algorytmów penalizujących, stworzyliśmy mechanizm automatycznego generowania propozycji linków.
Dla każdego artykułu wybieranych jest kilka najbliższych treści, z uwzględnieniem:
- trafności tematycznej – by linkować to, co naprawdę do siebie pasuje,
- różnorodności linków – by nie poprzestać wciąż na tym samym,
- równomiernego rozkładu – by wszystkie artykuły zyskały szansę na odkrycie.
8. Wdrożenie i testy: kontrola jakości
Gotowe rekomendacje zostały najpierw wyeksportowane w formie ID konkretnych artykułów, a następnie przekazane do wdrożenia po stronie Klienta. Wdrożenie polegało na załadowaniu do systemu CMS Smyka do obszarów dostępnych na blogu (wspomniane wcześniej boxy i karuzele).
Dało to możliwość na masowe dodanie linków w odpowiednich miejscach oraz ich późniejszą weryfikację.
Zawsze przy zastosowaniu rozwiązań automatyzacji i AI sprawdzamy efekty ręcznie — wspomagamy się narzędziami, ale w trosce o jakość dla Klienta nie ufamy im ślepo. W tym przypadku również po imporcie linków nasi eksperci przeprowadzili manualną weryfikację określonej grupy wpisów na blogu, aby ocenić poprawność wygenerowanych wyników i upewnić się, czy nie wystąpiły krytyczne błędy lub niezgodności.

Podsumowanie i wnioski
Wdrożenie wszystkich etapów pozwoliło jeszcze bardziej wykorzystać potencjał bazy treści oraz rozmieścić linki wewnętrzne przy wpisach w sposób nieprzypadkowy.
Dzięki wykorzystaniu automatyzacji, naszych autorskich skryptów i sztucznej inteligencji w procesie linkowania wewnętrznego SMYK zyskał:
- Łatwiejsze skalowanie – proste aktualizacje dla setek czy nawet tysięcy artykułów,
- Wyższą spójność tematyczną – czytelnicy łatwiej trafiają na treści pokrewne, co wydłuża ich ścieżkę na stronie,
- Recykling, czyli „drugie życie” treści – starsze lub rzadziej odwiedzane artykuły częściej pojawiają się w rekomendacjach,
- Lepszą użyteczność – usystematyzowana struktura ułatwia nawigację i poprawia wrażenia czytelników,
- Równomierny rozkład mocy linków – unikamy „faworyzowania” kilku popularnych artykułów, dzięki czemu starsze wpisy zyskują nowe odsłony.
- Oszczędność czasu – ręczne wstawianie linków do ponad tysiąca wpisów przestało być wyzwaniem – automatyzacja robi to za nas.

Z perspektywy SEO wykorzystanie AI w tym projekcie to nie tylko kwestia wygodnego zarządzania contentem. Nasze podejście pokazało, że to świetny fundament dla bardziej złożonych strategii optymalizacyjnych, które odpowiadają na wyzwania współczesnego ekosystemu wyszukiwania. Z jednej, centralnie zarządzanej jednostki treści można obecnie dynamicznie generować spójną wartość w wielu lokalizacjach w serwisie, a to przekłada się bezpośrednio m.in. na poprawę topical authority, zwiększenie głębokości indeksacji, a także redukuje problemy z kanibalizacją słów kluczowych. Jesteśmy w momencie przejściowym: klasyczne podejście do SEO, ustępuje miejsca semantycznemu modelowi, w którym liczy się kontekst, intencja i relacje między treściami. To wszystko udało nam się osiągnąć dzięki autorskiemu skryptowi.
Maciej Orpik
SEO Team Leader

Praca nad tym projektem była naprawdę ciekawym i satysfakcjonującym doświadczeniem. Embeddowanie treści to obszar, który zyskuje coraz większe znaczenie i otwiera drogę do wielu praktycznych rozwiązań. Implementacja embedów nie tylko wspiera działania z zakresu SEO, poprawiając strukturę i jakość treści na stronach internetowych, ale również pokazuje szereg nowych możliwości w zakresie personalizacji contentu, integracji z różnorodnymi platformami oraz automatyzacji procesów publikacyjnych. Machine lerning powinien mieć na uwadze każdy biznes, który nie chce zostać w tyle za swoją konkurencją.
Marcin Wilczyński
Marketing Automation Specialist
Nowe możliwości w marketingu cyfrowym dzięki automatyzacji i sztucznej inteligencji
Ten projekt pokazuje, że AI i automatyzacja w SEO nie są już tylko modnymi sloganami – to konkretne narzędzia, które umożliwiają skuteczne skalowanie działań nawet w bardzo rozbudowanych serwisach e-commerce.
Z perspektywy marketingu cyfrowego zastosowanie takiej technologii oznacza, że twórcy treści oraz działy SEO mogą skupić się na rozwijaniu strategii i tworzeniu wartościowych materiałów, zamiast ręcznie przeklikiwać setki podstron. Co więcej, sklepy internetowe, takie jak ten prowadzony przez SMYK, mogą w pełni wykorzystać ukryty potencjał swoich treści, bez konieczności ręcznego i czasochłonnego linkowania.