Przejdź do głównej treści

    

Strona jest w trakcie przebudowy. Za wszelkie niedogodności przepraszam.

Keywords

To wyraz lub grupa wyrazów, których używa się w procesie wyszukiwania informacji w wyszukiwarkach internetowych. W SEO słowa kluczowe odnoszą się przede wszystkim do haseł wpisywanych przez użytkowników w wyszukiwarkach internetowych takich jak Google czy Bing. Google jakiś czas temu (2009) zaprzestało używania słów kluczowych i nie są już czynnikiem wpływającym na pozycje strony w wyszukiwarce. 

Meta tag - Author

Autor zaliczamy do grupy Meta tagów. Ten tag służy do rejestrowania informacji dotyczących tego kto jest autorem zawartych na stronie informacji. Joomla automatycznie wstawia tag autora i zawsze podaje nazwę użytkownika, który stworzył treść.

Google Indexing API

Za pomocą interfejsu Indexing API możesz poprosić Google o zaktualizowanie stron w indeksie Google lub usunięcie ich. Żądania muszą określać lokalizację strony internetowej. Możesz również otrzymywać informacje o stanie powiadomień wysłanych do Google.

Meta tag - Robots

Robots pozwala na zastosowanie precyzyjnego i zależnego od strony podejścia do kontrolowania sposobu, w jaki dana strona ma być indeksowana i wyświetlana użytkownikom w wynikach wyszukiwania Google. Wyróżniamy kilka dyrektyw, do których boty się dostosowywują i indeksują stroną lub też pomija daną podstronę. 
Dyrektywy:

  • All
  • noindex
  • nofollow
  • noarchive
  • nosnippet
  • max-snippet:
  • max-image-
  • max-video-preview:[number]
  • notranslate
  • noimageindex
  • data-text="unavailable_after: [data/godzina]

Nagłówki HTTP

To wszelkie instrukcje / komendy używane do komunikacji między przeglądarką internetową a serwerem.

Lista nagłówków:

Standardowe:

  • Accept
  • Accept-Charset
  • Accept-Encoding
  • Accept-Language
  • Accept-Ranges
  • Allow
  • Authorization
  • Cache-Control
  • Connection
  • Content-Encoding
  • Content-Language
  • Content-Length
  • Content-Location
  • Content-Range
  • Content-Type
  • Date
  • Expires
  • Host
  • If-Match
  • If-Modified-Since
  • Last-Modified
  • Location
  • Pragma
  • Proxy-Authenticate
  • Proxy-Authorization
  • Range
  • Referer
  • Retry-After
  • Server
  • Transfer-Encoding
  • User-Agent
  • WWW-Authenticate

Niestandardowe:

źródło: 

https://pl.wikipedia.org/wiki/ListanagłówkówHTTP

STRICT-TRANSPORT-SECURITY

Wymusza użycie bezpiecznego połączenia HTTPS podczas każdej następnej wizyty na odwiedzanej stronie do momentu upływu czasu max-age w sekundach od ostatniego skutecznego wczytania danej strony zawierającej ten nagłówek, jednak nie wcześniej, niż do końca najdłuższego okresu spośród napotkanych. Używany w celu zapobiegania atakom man in the middle oraz SSL strip. W przypadku tego nagłówka przeglądarka użytkownika nie ma prawa zaproponować zignorowania lub ominięcia błędu, który powstanie w razie braku lub niezgodności certyfikatu serwera. W prostych słowach chroni to użytkownika przed odesłaniem do niezabezpieczonej strony http między sesją https. 

X-FRAME OPTIONS

Nagłówek odpowiedzi HTTP X-Frame-Options może służyć do wskazania, czy przeglądarka powinna mieć możliwość renderowania strony w <frame>, <iframe>, <embed> lub <object>. Witryny mogą to wykorzystać, aby uniknąć ataków polegających na przechwytywaniu kliknięć, zapewniając, że ich zawartość nie jest osadzana w innych witrynach.
Dodatkowe zabezpieczenia są zapewniane tylko wtedy, gdy użytkownik uzyskujący dostęp do dokumentu używa przeglądarki obsługującej X-Frame-Options.

X-XSS-PROTECTION

Nagłówek odpowiedzi HTTP X-XSS-Protection to funkcja przeglądarek Internet Explorer, Chrome i Safari, która zatrzymuje ładowanie stron po wykryciu ataków z użyciem odwróconych skryptów krzyżowych (XSS). Chociaż te zabezpieczenia są w większości niepotrzebne w nowoczesnych przeglądarkach, gdy witryny stosują silne zabezpieczenia treści.
Zasada, która wyłącza korzystanie ze wbudowanego kodu JavaScript („niebezpiecznego w treści”), nadal może zapewniać ochronę użytkownikom starszych przeglądarek internetowych, które jeszcze nie obsługują CSP.

.htaccess

.htaccess – domyślna nazwa pliku konfiguracyjnego serwera Apache, który umożliwia zmianę konfiguracji dla konkretnego katalogu. Plik konfiguracyjny może zostać utworzony w każdym katalogu, umożliwiając dodanie nowych lub zmianę istniejących dyrektyw ustawionych w głównym pliku konfiguracyjnym (httpd.conf). Zmienione ustawienia obowiązują dla danego katalogu jak i dla wszystkich podkatalogów, jeśli tylko dany podkatalog nie jest skonfigurowany jako osobny podserwer – należy zapamiętać, że w takim przypadku dziedziczenie ustawień zawartych w .htaccess nie zadziała. Za pomocą specjalnych dyrektyw możliwe jest m.in. wskazywanie stron www wyświetlanych w odpowiedzi na różne komunikaty błędów serwera (np. 404), lub np. ograniczanie dostępu do zasobów znajdujących się na danym serwerze. Plik konfiguracyjny odczytywany jest podczas każdego żądania dotyczącego plików danego katalogu, a więc jego modyfikacja znajduje natychmiastowe odzwierciedlenie w zachowaniu się serwera. Plik jest między innymi odpowiedzialny za proste adresy w CMS Joomla!

Plik .htaccess jest używany w Joomla do stosowania prostych adresów trzeba pamiętać o zmianie z htaccess.txt na .htaccess

Plik htacess.txt / .htaccess zawsze znajdziesz w lokalizacji instalacji Joomla i katalogu public_html.

/home/nazwa_użytkownika/public_html/htaccess.txt

Dla instalacji subdomenowych.

/home/nazwa_użytkownika/public_html/subdomena/htaccess.txt

Uwaga:

Pamiętaj wersja .txt nie jest w żaden sposób interpretowana przez serwer!

Robot.txt

Robots.txt to plik tekstowy, który umożliwia witrynie dostarczanie instrukcji robotom indeksującym sieć.

Wyszukiwarki takie jak Google używają robotów internetowych do archiwizowania i kategoryzowania witryn internetowych. Większość botów jest skonfigurowana do wyszukiwania pliku robots.txt na serwerze, zanim odczyta jakikolwiek inny plik ze strony internetowej.
Ma to na celu sprawdzenie, czy właściciel witryny ma jakieś specjalne instrukcje dotyczące pobierania i indeksowania witryny.

Plik robots.txt zawiera zestaw instrukcji, które nakazują botowi ignorowanie określonych plików lub katalogów.
Może to mieć na celu ochronę prywatności lub właściciel witryny uważa, że ​​zawartość tych plików i katalogów nie ma znaczenia dla kategoryzacji witryny w wyszukiwarkach.

Jeśli witryna ma więcej niż jedną subdomenę, każda subdomena musi mieć własny plik robots.txt.
Należy pamiętać, że nie wszystkie roboty będą honorować plik robots.txt. Niektóre złośliwe boty przeczytają nawet plik robots.txt, aby znaleźć pliki i katalogi, które powinny je najpierw zaatakować. Ponadto, nawet jeśli plik robots.txt instruuje roboty, aby ignorowały określone strony w witrynie, strony te mogą nadal pojawiać się w wynikach wyszukiwania, jeśli są połączone z innymi stronami, które są indeksowane.

Plik Robot.txt zawsze znajdziesz w lokalizacji instalacji Joomla i katalogu public_html.

/home/nazwa_użytkownika/public_html/robot.txt

Dla instalacji subdomenowych.

/home/nazwa_użytkownika/public_html/subdomena/robot.txt