Autor zaliczamy do grupy Meta tagów. Ten tag służy do rejestrowania informacji dotyczących tego kto jest autorem zawartych na stronie informacji. Joomla automatycznie wstawia tag autora i zawsze podaje nazwę użytkownika, który stworzył treść.
Robots pozwala na zastosowanie precyzyjnego i zależnego od strony podejścia do kontrolowania sposobu, w jaki dana strona ma być indeksowana i wyświetlana użytkownikom w wynikach wyszukiwania Google. Wyróżniamy kilka dyrektyw, do których boty się dostosowywują i indeksują stroną lub też pomija daną podstronę.
Dyrektywy:
- All
- noindex
- nofollow
- noarchive
- nosnippet
- max-snippet:
- max-image-
- max-video-preview:[number]
- notranslate
- noimageindex
- data-text="unavailable_after: [data/godzina]
To wszelkie instrukcje / komendy używane do komunikacji między przeglądarką internetową a serwerem.
Lista nagłówków:
Standardowe:
- Accept
- Accept-Charset
- Accept-Encoding
- Accept-Language
- Accept-Ranges
- Allow
- Authorization
- Cache-Control
- Connection
- Content-Encoding
- Content-Language
- Content-Length
- Content-Location
- Content-Range
- Content-Type
- Date
- Expires
- Host
- If-Match
- If-Modified-Since
- Last-Modified
- Location
- Pragma
- Proxy-Authenticate
- Proxy-Authorization
- Range
- Referer
- Retry-After
- Server
- Transfer-Encoding
- User-Agent
- WWW-Authenticate
Niestandardowe:
- Cookie
- Set-Cookie
- Refresh
- X-Frame-Options
- Strict-Transport-Security
- X-XSS-Protection
- X-Content-Type-Options
- Referrer-Policy
- Expect-CT
- Feature-Policy
- Permissions-Policy
źródło:
https://pl.wikipedia.org/wiki/ListanagłówkówHTTP
Wymusza użycie bezpiecznego połączenia HTTPS podczas każdej następnej wizyty na odwiedzanej stronie do momentu upływu czasu max-age w sekundach od ostatniego skutecznego wczytania danej strony zawierającej ten nagłówek, jednak nie wcześniej, niż do końca najdłuższego okresu spośród napotkanych. Używany w celu zapobiegania atakom man in the middle oraz SSL strip. W przypadku tego nagłówka przeglądarka użytkownika nie ma prawa zaproponować zignorowania lub ominięcia błędu, który powstanie w razie braku lub niezgodności certyfikatu serwera. W prostych słowach chroni to użytkownika przed odesłaniem do niezabezpieczonej strony http między sesją https.
Za pomocą interfejsu Indexing API możesz poprosić Google o zaktualizowanie stron w indeksie Google lub usunięcie ich. Żądania muszą określać lokalizację strony internetowej. Możesz również otrzymywać informacje o stanie powiadomień wysłanych do Google.
Nagłówek odpowiedzi HTTP X-Frame-Options może służyć do wskazania, czy przeglądarka powinna mieć możliwość renderowania strony w <frame>, <iframe>, <embed> lub <object>. Witryny mogą to wykorzystać, aby uniknąć ataków polegających na przechwytywaniu kliknięć, zapewniając, że ich zawartość nie jest osadzana w innych witrynach.
Dodatkowe zabezpieczenia są zapewniane tylko wtedy, gdy użytkownik uzyskujący dostęp do dokumentu używa przeglądarki obsługującej X-Frame-Options.
Nagłówek odpowiedzi HTTP X-XSS-Protection to funkcja przeglądarek Internet Explorer, Chrome i Safari, która zatrzymuje ładowanie stron po wykryciu ataków z użyciem odwróconych skryptów krzyżowych (XSS). Chociaż te zabezpieczenia są w większości niepotrzebne w nowoczesnych przeglądarkach, gdy witryny stosują silne zabezpieczenia treści.
Zasada, która wyłącza korzystanie ze wbudowanego kodu JavaScript („niebezpiecznego w treści”), nadal może zapewniać ochronę użytkownikom starszych przeglądarek internetowych, które jeszcze nie obsługują CSP.
.htaccess – domyślna nazwa pliku konfiguracyjnego serwera Apache, który umożliwia zmianę konfiguracji dla konkretnego katalogu. Plik konfiguracyjny może zostać utworzony w każdym katalogu, umożliwiając dodanie nowych lub zmianę istniejących dyrektyw ustawionych w głównym pliku konfiguracyjnym (httpd.conf). Zmienione ustawienia obowiązują dla danego katalogu jak i dla wszystkich podkatalogów, jeśli tylko dany podkatalog nie jest skonfigurowany jako osobny podserwer – należy zapamiętać, że w takim przypadku dziedziczenie ustawień zawartych w .htaccess nie zadziała. Za pomocą specjalnych dyrektyw możliwe jest m.in. wskazywanie stron www wyświetlanych w odpowiedzi na różne komunikaty błędów serwera (np. 404), lub np. ograniczanie dostępu do zasobów znajdujących się na danym serwerze. Plik konfiguracyjny odczytywany jest podczas każdego żądania dotyczącego plików danego katalogu, a więc jego modyfikacja znajduje natychmiastowe odzwierciedlenie w zachowaniu się serwera. Plik jest między innymi odpowiedzialny za proste adresy w CMS Joomla!
Plik .htaccess jest używany w Joomla do stosowania prostych adresów trzeba pamiętać o zmianie z htaccess.txt na .htaccess
Plik htacess.txt / .htaccess zawsze znajdziesz w lokalizacji instalacji Joomla i katalogu public_html.
/home/nazwa_użytkownika/public_html/htaccess.txt
Dla instalacji subdomenowych.
/home/nazwa_użytkownika/public_html/subdomena/htaccess.txt
Uwaga:
Pamiętaj wersja .txt nie jest w żaden sposób interpretowana przez serwer!
Robots.txt to plik tekstowy, który umożliwia witrynie dostarczanie instrukcji robotom indeksującym sieć.
Wyszukiwarki takie jak Google używają robotów internetowych do archiwizowania i kategoryzowania witryn internetowych. Większość botów jest skonfigurowana do wyszukiwania pliku robots.txt na serwerze, zanim odczyta jakikolwiek inny plik ze strony internetowej.
Ma to na celu sprawdzenie, czy właściciel witryny ma jakieś specjalne instrukcje dotyczące pobierania i indeksowania witryny.
Plik robots.txt zawiera zestaw instrukcji, które nakazują botowi ignorowanie określonych plików lub katalogów.
Może to mieć na celu ochronę prywatności lub właściciel witryny uważa, że zawartość tych plików i katalogów nie ma znaczenia dla kategoryzacji witryny w wyszukiwarkach.
Jeśli witryna ma więcej niż jedną subdomenę, każda subdomena musi mieć własny plik robots.txt.
Należy pamiętać, że nie wszystkie roboty będą honorować plik robots.txt. Niektóre złośliwe boty przeczytają nawet plik robots.txt, aby znaleźć pliki i katalogi, które powinny je najpierw zaatakować. Ponadto, nawet jeśli plik robots.txt instruuje roboty, aby ignorowały określone strony w witrynie, strony te mogą nadal pojawiać się w wynikach wyszukiwania, jeśli są połączone z innymi stronami, które są indeksowane.
Plik Robot.txt zawsze znajdziesz w lokalizacji instalacji Joomla i katalogu public_html.
/home/nazwa_użytkownika/public_html/robot.txt
Dla instalacji subdomenowych.
/home/nazwa_użytkownika/public_html/subdomena/robot.txt
Top pięć darmowych rozszerzeń na Joomla do tworzenia sitemapy. Nieważne, jaką masz dużą stronę, mapa strony jest niezbędna dla poprawnego SEO. Dzięki mapie strony (sitemap) pokierujesz roboty Google tam, gdzie powinny się znaleźć na Twojej stronie.
Jest wiele rzeczy, które możesz zrobić, aby Twoja witryna była w pełni przyjazna dla SEO, takich jak optymalizacja szybkości witryny, tworzenie witryn w pełni przyjaznych dla urządzeń mobilnych i wiele więcej.
W dynamicznym świecie internetu, wybór odpowiedniego systemu zarządzania treścią (CMS) jest kluczowy dla osiągnięcia sukcesu online w 2025 roku. Dwie wiodące platformy, Joomla i WordPress, oferują szeroki zakres funkcji i możliwości, ale ich odmienne podejścia mogą sprawić, że jedna z nich będzie lepiej dopasowana do konkretnych potrzeb. Chociaż WordPress dominuje obecnie na rynku, Joomla pozostaje znaczącym graczem z unikalnymi zaletami, co sprawia, że dokładne porównanie jest niezbędne, aby użytkownicy mogli dokonać świadomego wyboru. Celem tego artykułu jest dostarczenie kompleksowego, nietechnicznego porównania obu platform, aby pomóc użytkownikom w wyborze między Joomla 5 a WordPresspod kątem optymalizacji SEO w 2025 roku. Porównanie obejmie kluczowe obszary, takie jak podstawowa funkcjonalność, optymalizacja pod kątem wyszukiwarek, wykorzystanie nowych technologii (wyszukiwanie głosowe i oparte na sztucznej inteligencji) oraz bezpieczeństwo.