Wpisy

Drupal 8 w wersji stabilnej - co nowego

Po kilku latach (sic!) opóźnienia, kolejnych wersjach beta i ponad dwuletnim poślizgu w opublikowaniu wersji stabilnej, ostatecznie, 19 listopada, zespół Drupala przedstawił ósmą wersję tego popularnego CMSa. To chyba najdłużej wyczekiwana wersja Drupala w wieloletniej historii tego projektu. Co nowego przynosi? Niżej, lista najważniejszych – naszym zdaniem – nowych funkcji:

Nowe pola wbudowane w rdzeń – m.in. referencje do encji, odnośniki, data, mail, telefon. Komentarze są teraz polami standardowymi. Pola są dołączane do formularzy (np. formularza kontaktowego).

Popularny moduł Views został wbudowany w rdzeń systemu – a co za tym idzie łatwiejsza jest zmiana strony głównej, która stała się pełnoprawnym widokiem. Łatwiejsze stało się też budowanie stron administracyjnych, edycja treści, dodawanie własnych filtrów, akcji etc..

Responsywność – wszystkie wbudowane w Drupala 8 skórki są responsywne, podobnie jak zaplecze administracyjne. Każda strona zbudowana na nowym Drupalu działa poprawnie na urządzeniach mobilnych.

HTML5 – odświeżony CMS generuje strony w pełnym HTML5. Znacznie uproszczono strukturę elementów i klas. System wspiera dynamiczną zmianę rozmiaru obrazów w momencie zmiany wymiarów okna przeglądarki. Dodano też wsparcie dla narzędzi wprowadzonych w HTML5 – wprowadzanie dat, emaili, telefonów na urządzeniach mobilnych.

Wsparcie dla WCAG 2.0 – pełne poszanowanie standardów WAI-ARIA. Ma to szczególne znaczenie dla organów administracji rządowej, samorządowej i innych jednostek publicznych. System jest w pełni dostosowany „out of the box” do standardu WCAG 2.0.

W rdzeń Drupala wbudowano moduł CKEditor – ulepszony formularz dodawania zawartości, dzięki czemu możliwa jest edycja zawartości „w locie”, bez przechodzenia do pełnej wersji formularza. Uproszczona została ponadto konfiguracja edytora WYSIWYG i uproszczono zapisywanie wersji roboczych.

Nowy Drupal zawiera nowy system konfiguracji – oparty o pliki. Rozbudowano wersjonowanie i przenoszenie konfiguracji między środowiskami. Przenoszone są typy zawartości, pola, widoki.

Wielojęzyczność – znaczne zmiany nastąpiły w zakresie obsługi stron wielojęzycznych. Ekran instalacyjny pozwala wybrać język. W pełni wspierana jest wielojęzyczność widoków, pól i pozostałych części Drupala.

Serwer usług REST – nowy Drupal może służyć jako źródło danych dla aplikacji mobilnych, udostępniając dane w formacie JSON lub XML z pełną autoryzacją http dostępu do usług oraz wstawianiem danych z widoków jako usługi.

Nowe zasady korzystania z Google Maps

No i mamy kolejne zamieszanie związane z popularnymi usługami internetowymi. Rozeszła się po sieci niedawno wieść, że za korzystanie z map Google będzie trzeba płacić. I to słono. Rzeczywiście, niedawna zmiana polityki popularnych map Google faktycznie wprowadza opłaty za tę usługę. Wiadomości o gigantycznym „haraczu”, który trzeba będzie płacić sieciowemu koncernowi za posiadanie na stronie www mapki z dojazdem do firmy są jednak mocno przesadzone. Jeśli mapka na stronie www nie notuje więcej wywołań, niż 25 tysięcy na dobę (co przekłada się na 99 proc. stron www) korzystanie z niej nadal będzie bezpłatne. Pytanie jednak na jak długo?

Google coraz bardziej rozprawia się z mitem „bezpłatnych usług sieciowych”. Właśnie zmieniono API popularnych Google Maps – do 25 tysięcy odwołań na dobę z jednej domeny usługa nadal pozostaje bezpłatna, jednak jeśli serwis www jest na tyle popularny, aby tę liczbę przekroczyć… No dobrze – nie będziemy Was zmuszać do przekopywania się przez nader bogatą bibliotekę dokumentów z politykami i zasadami korzystania z usług Google. Opłaty wynoszą 4 dolary za każdy tysiąc załadowań map powyżej 25 tysięcy na dobę, istnieje też opcja zakupu licencji nielimitowanej za jedyne 10 tysięcy dolarów miesięcznie. Co to oznacza dla właścicieli większości stron www? Właściwie nic. Niewiele jest serwisów przekraczających pułap 25 tysięcy odwołań do mapy na dobę. Opłaty będą głównie ponosić zatem bardzo popularne strony www w całości oparte o Google Maps. Skomercjalizowania tej usługi ze strony Google należało się ponadto wcześniej, czy później spodziewać – na utrzymanie, aktualizowanie, rozwijanie i oferowanie map koncern wydaje miliony dolarów miesięcznie. Pytanie tylko jak długo nowa polityka map będzie obowiązywała? To zapewne zależy od poziomu wpływów generowanych po zmianach. Naszym zdaniem – w perspektywie wieloletniej – należy się spodziewać stopniowego obniżania progów odpłatności za odwołania do map, aż do poziomu, gdy niewielkie opłaty (stawialibyśmy na tzw. mikropłatności) będą pobierane od każdej strony www korzystającej z tej usługi.

Czat wideo na stronie www

Dziś klika słów z zakresu analizy opłacalności i planowania strategii rozwoju serwisu www. Do popełnienia tego wpisu „natchnęła” nas wzrastająca popularność stron www oferujących komunikację pomiędzy użytkownikami za pomocą strumieniowania audio-wideo (popularnie mówiąc – czat z wideo kamerkami).

Jak głosiła niegdyś kontrowersyjna kampania reklamowa jednego z operatorów komórkowych „my nie umiemy opowiadać bajek” – same koszty wykonania systemu pozwalającego na komunikację audio-wideo na żywo są porównywalne do innych rozbudowanych rozwiązań programowych – to po prostu oprogramowanie, jak każde inne. Planując taką stronę www trzeba się jednak liczyć ze znacznymi nakładami na jej późniejsze utrzymanie i rozwój. Co tu dużo owijać w bawełnę? – nie wróżymy przyszłości stronie www z komunikacją audio-wideo, której opracowania nie poprzedza przygotowanie przemyślanego i realnego biznesplanu. Jakkolwiek kolokwialnie by to nie brzmiało – czat z kamerkami na popularnym hostingu „nie pójdzie”. Potrzeba minimum serwerów VPS, jeszcze lepiej serwerów dedykowanych (od razu warto sprawdzać możliwość negocjacji rabatów u dostawcy w miarę rozwoju serwisu – przy przemyślanej promocji strony www, raczej szybciej, niż później będą potrzebne kolejne serwery do obsługi szybko wzrastającego ruchu). Niezbędna będzie także odpowiednia przepustowość łącz internetowych komunikujących serwery z siecią, które „nie zapchają się” ilością danych. Alternatywnie, można również korzystać z usług specjalizowanych hostingów oferujących pakiety połączeń audio-wideo za zryczałtowaną, miesięczną opłatę (zazwyczaj rozwiązanie takie wychodzi drożej od serwerów dedykowanych, jednak zapewnia większą wygodę – o konserwację serwerów i parametry strumieni audio-wideo dba dostawca usługi).

Którą opcję wybrać? Odpowiedzi na to pytanie zazwyczaj pozwala udzielić opracowanie dokładnego briefingu strony www, jej strategii promocji i rozwoju. Małej firmie szkoleniowej, od czasu do czasu organizującej webinaria z wideokonferencją dla kilku użytkowników wystarczy niedrogi serwer VPS. Przyjmijmy jednak, że planujemy duży, dobrze prosperujący serwis opierający się głównie o komunikację audio-wideo pomiędzy użytkownikami, dla którego w strategii rozwoju zakładamy, że po kilku miesiącach istnienia będzie miał nieustannie, przez całą dobę, przeciętnie ok. 100-200 osób nadających i nawet kilkanaście tysięcy oglądających. Serwis ma ponadto oferować docelowo jakość transmisji HD. Zaczynamy od uzbrojenia się w wiedzę, przesyłu jakiej ilości danych wymaga transmisja audio-wideo w różnych trybach (tabele, włącznie z uwzględnianiem kompresji, są ogólnie dostępne w sieci). Mnożymy wyniki dla planowanej, określonej jakości transmisji na jednego użytkownika przez ilość planowanych użytkowników na stronie korzystających z funkcji audio-wideo jednocześnie – mając takie dane łatwo zaplanować jakie będą potrzebne nam przepustowości łącz internetowych oraz jakiej wydajności serwerów będziemy potrzebować do obsługi strony na danym etapie jej rozwoju, a to pozwala w miarę precyzyjnie oszacować i zaplanować koszty włącznie z perspektywą średnioterminową.

A co jeśli nasza strona www odniesie sukces? Znamy kilka przypadków naprawdę dużych, silnie obciążonych serwisów www opartych o komunikację audio-wideo, gdzie analiza wykazała, że najkorzystniejszą opcją będzie wybudowanie i utrzymywanie własnej serwerowni, gdyż pomimo początkowych, dużych kosztów inwestycji i kosztów pracy personelu serwerowni, nakłady zwracają się w rozliczeniu wieloletnim stosunkowo szybko i w sumie są niższe od wynajmowania serwerowni lub hostingów wideo – i takich wyników analizy już po kilku miesiącach działania strony www życzymy każdemu posiadaczowi serwisu typu „czat z wideokamerkami”.

Podstawowe zasady zabezpieczania stron www

Niedawne, nagłośnione w mediach, dwukrotne wyłączenie na kilka godzin serwisu aukcyjnego Allegro sprawiło, że zadajecie nam dużo pytań odnośnie zabezpieczenia stron www przed rozmaitymi atakami z sieci. Zabezpieczenia systemów teleinformatycznych przed niepożądaną ingerencją to temat na tyle szeroki, że powstają o nim dziesiątki prac naukowych, niemniej jednak postaramy się w – bardzo uproszczonych – zarysach przedstawić istotę problemu. W skrócie – naiwnością jest sądzić, że sprawa wyłączenia Allegro to jakiś jednostkowy, nadzwyczajny przypadek. Po prostu hakerom udało się tym razem zablokować ten serwis dość prymitywną metodą zmasowanego ataku DDOS, a że platforma jest popularna, media nagłośniły temat, popełniając przy okazji – jak to media – całą gamę błędów merytorycznych. Z Facebooka, czy Allegro korzystamy wszyscy, jednak mało kto zdaje sobie sprawę z milionów inwestowanych przez duże spółki IT w zabezpieczenia i z nieustannej walki z nieproszonymi gośćmi odbywającej się na zapleczu takich serwisów. Z dozą prawdopodobieństwa graniczącą z pewnością możemy stwierdzić, że do ataków na każdy duży serwis, taki jak Allegro, dochodzi… kilka razy dziennie.

Biorąc pod uwagę ten dość pesymistyczny wstęp, a także fakt, że przed atakami hakerów nie uchronili się nawet tacy giganci jak Googgle, Facebook, Twitter, czy Apple, można sobie zadać pytanie, czy w ogóle warto mieć stronę www? Równie dobrze można by zapytać, czy warto mieć dom? Warto, jednak każdy chroni swój dom przed włamywaczami. W gruncie rzeczy zasady ochrony strony www przed hakerami są zbliżone. Dom chronią przynajmniej dwa zamki w drzwiach, alarm i odpowiednie zachowanie domowników (nie zostawiamy na oścież otwartych drzwi, bo wszystkie zabezpieczenia zdadzą się na nic). Podobnie jest ze stroną internetową – nie zostawiamy na oścież otwartych drzwi. Czy warto jednak popadać w paranoję? Wprawdzie dom można tak zabezpieczyć, że nawet właściciel będzie miał problem z wejściem do niego, stronę internetową również, jednak to mija się raczej z celem i wygodą użytkowania. Jak w każdej innej dziedzinie życia – nic nie zastąpi zdrowego rozsądku. Odwieczna zasada informatyki mówi, że co da się zabezpieczyć, da się i odbezpieczyć. Jest to tylko kwestia czasu i środków poświęconych na złamanie zabezpieczeń.
Wbrew pozorom problem nie dotyczy domorosłych, zazwyczaj niepełnoletnich, „hakerów” obchodzących „dla chwały i sportu” podstawowe zabezpieczenia tysięcy firmowych i prywatnych stron www opartych o popularne rozwiązania CMS, czy spambotach rozsyłających masowo maile lub zostawiających niechciane wpisy w komentarzach – ich działalność każdy może łatwo wykryć i się przed nią zabezpieczyć (nie potrzeba do tego specjalistycznej wiedzy, wystarczy tzw. zdrowy rozsądek administratora, czy właściciela strony i chwila lektury w Internecie) – a w rozwijającej się w błyskawicznym tempie cyberprzestępczości. O ile wizytówkowa strona www małej firmy zupełnie nie leży w kręgu zainteresowań cyberprzestępców, o tyle duży sklep internetowy, portal aukcyjny, czy każda inna strona przetwarzająca dane osobowe i finansowe musi się liczyć z tym, że wcześniej, czy później stanie się obiektem ataku, gdyż przechowuje dane, które mogą zostać zamienione w gotówkę – dane osobowe użytkowników, numery ich kont i kart kredytowych. Jak myślicie ile może być warta pełna baza danych zweryfikowanych użytkowników Allegro, z historią ich transakcji, zainteresowań, korespondencji? Starczyłoby na wykupienie kilku firm takich, jak Entera i jeszcze zostałoby na prywatną, tropikalną wyspę.
Wracając do wspomnianych, domorosłych „hakerów” i spambotów – aby nie mieć z nimi większych kłopotów wystarczy monitorować swoją stronę www i dbać o minimalny poziom jej zabezpieczeń: ukrycie panelu administratora, niestandardowe przedrostki w bazie danych, silne, regularnie zmieniane hasła, niezapisywanie haseł w programach do FTP itp. Oprócz tych podstawowych działań, praktycznie każdy popularny CMS posiada też sporą gamę wtyczek chroniącą przed rozmaitymi, prostymi atakami – ich używanie jest zazwyczaj bezpłatne. Warto pamiętać, że wszelkie zabezpieczenia nie zastąpią najważniejszej czynności odpowiedzialnego administratora – regularnego wykonywania kopii bezpieczeństwa plików strony i bazy danych. Nawet jeśli strona www padnie wówczas ofiarą ataku, szkody będą minimalne – zawsze można przywrócić ją do stanu sprzed ataku, wprowadzając dodatkowe zabezpieczenia. I warto o tym pamiętać.

Jak w Entera Studio WWW reagujemy na zgłoszenia awarii

Strona www nie działa! – niezbyt często, jednak zdarza się, że w telefonie, czy e-mailu otrzymujemy taką alarmującą wiadomość. Na każdą stronę www składa się minimum kilkaset tysięcy linii kodu, a całość liczy od kilku, do nawet kilkuset tysięcy plików. Wszystko to pracuje w określonym środowisku serwerowym. Czasami wystarczy drobna zmiana w konfiguracji serwera wprowadzona przez dostawcę usługi hostingowej i, przy takim rozmiarze danych składających się na stronę www, błąd może pojawić się w sposób nieprzewidziany. Awaria zdarzyć się może, jednak najważniejsza w takich sytuacjach jest szybkość reakcji.

Problem nie dotyczy serwerów własnych, dedykowanych, czy VPS, gdzie właściciel strony www ma pełną kontrolę nad oprogramowaniem serwera, a stron hostowanych – zmiany w oprogramowaniu serwerów wprowadza Administrator dostawcy usługi hostingowej, a klienci nie mają wpływu na ich głębokość i rozległość. W informatyce tymczasem wszystkiego przewidzieć się nie da. Nie ma możliwości, aby Administrator dużego serwera hostingowego był w stanie przewidzieć wszystkie ewentualności i konflikty jakie mogą pojawić się z rozmaitymi skryptami zainstalowanymi na kontach użytkowników, zwłaszcza gdy tych kont są tysiące, a na nich tysiące stron www wykonanych w różnych technologiach. Gdyby chciano przeanalizować wszystkie możliwości, nie wprowadzono by ulepszeń nigdy, bowiem nieustannie trwałaby analiza, w czasie której pojawiałyby się nowe wersje oprogramowania, zatem trzeba by zaczynać analizę od nowa i tak w nieskończoność.

W grudniu i styczniu najwięksi w Polsce dostawcy hostingu wprowadzali szereg zmian na swoich serwerach związanych z udostępnieniem nowych usług. Zespół reakcji technicznej Entery trwał w związku z tym w stanie podwyższonej gotowości. Pół biedy bowiem, gdy „error” wystąpi w godzinach służbowych – możemy reagować natychmiast. Awarie powodowane przez hostingi mają jednak to do siebie, że najczęściej pojawiają się poza godzinami pracy większości właścicieli i odbiorców stron www – noc to idealny czas dla Adminów dużych serwerów, gdyż ruch jest niewielki, zatem chętnie go wykorzystują na wprowadzanie i testowanie zmian. Na takie okazje mamy w Enterze wewnętrzny system powiadamiania o zgłoszeniach awarii, który poza godzinami pracy rozsyła powiadomienia e-mail i smsy oraz dzwoni do naszych administratorów, tak, aby awarie były usuwane w możliwie jak najkrótszym czasie. Zdajemy sobie bowiem sprawę z faktu, że każda godzina niedostępności strony www, czy sklepu internetowego w sieci oznacza straty dla firmy będącej właścicielem strony – wizerunkowe lub w braku sprzedaży.

Nowe Prawo Telekomunikacyjne nakłada na strony www, korzystające z cookies, obowiązek wyraźnego informowania o tym użytkownika

Rozwiewamy obawy związane z nowym prawem telekomunikacyjnym – nie trzeba masowo przerabiać stron www. Zmiany w przepisach niewątpliwie powinni jednak poznać webmasterzy projektujący nowe strony www, aby nie narażać swoich klientów na kłopoty. Nowelizacja ustawy Prawo Telekomunikacyjne powoduje również trudniejszą implementację mechanizmów WCAG 2.0 na stronach www.

Wczoraj weszła w życie nowa ustawa Prawo Telekomunikacyjne, która wprowadza sporo zmian w przepisach, w tym dotyczących systemów teleinformatycznych – co za tym idzie reguluje m.in. funkcjonowanie stron www. Z zakresu witryn internetowych w nowelizacji poruszono między innymi kwestię tzw. cookies (ciasteczek).

Cookies to niewielkie pliki, zawierające informacje tekstowe, wysyłane przez serwer www i zapisywane na twardym dysku użytkownika. Ciasteczeka pozwalają na odczytanie informacji w nich zawartych jedynie serwerowi, który je utworzył i służą do ułatwienia obsługi witryny – zapamiętują spersonalizowane ustawienia, dane logowania i tego typu informacje pomagające w korzystaniu ze strony www po ponownym jej odwiedzeniu. Cookies są najczęściej wykorzystywane w sklepach internetowych, na stronach wymagających logowania i do monitorowania aktywności odwiedzających.

Znowelizowana ustawa Prawo Telekomunikacyjne nakłada na „strony internetowe”, które korzystają z cookies, czyli w praktyce na ich właścicieli, obowiązek jasnego i wyraźnego informowania o tym fakcie użytkownika oraz umożliwienia mu wyboru, czy życzy sobie korzystać z cookies, czy nie. Większość obecnie funkcjonujących stron www tymczasem takiego mechanizmu nie oferuje. Wprowadzenie nowego prawa nie oznacza jednak konieczności masowego przeprogramowywania istniejących stron www. Warto zaznaczyć, że nowe prawo dotyczy tylko stron utrzymywanych na serwerach w obrębie Polski, czy też szerzej – jako, że wprowadzenie tych przepisów jest dostosowywaniem polskiego prawa do prawa Unii Europejskiej – na terenie UE.
W ustawie przewidziano ponadto domyślną zgodę, lub nie, użytkownika na przetwarzanie cookies na stronie www w zależności od ustawień przeglądarki internetowej, z której korzysta internauta. Wszystkie przeglądarki mają tymczasem domyślnie włączoną obsługę cookies, a 99 procent użytkowników nie zmienia tych opcji, tak więc domyślnie zgodę wyraża. Jeśli ktoś ma w przeglądarce zablokowaną obsługę cookies, w myśl ustawy zgody nie wyraża, jednak nawet w przypadku już istniejących stron www ciasteczka nie będą przetwarzane – przeglądarka odmawia ich przyjęcia od serwera www. W praktyce zatem dopiero internauta odwiedzający nową stronę www i mający w przeglądarce internetowej ustawioną opcję pytania o zgodę na obsługę cookies powinien zobaczyć komunikat z pytaniem o zgodę.

W przypadku istniejących stron www nowelizację prawa telekomunikacyjnego można zatem uznać za ciekawostkę, bez większego znaczenia, choć naturalnie mogą zdarzyć się jednostkowe przypadki jej naruszenia.
O zmianach w tej ustawie powinni jednak pamiętać webmasterzy projektujący i udostępniający nowe strony www implementując mechanizmy obsługi cookies zgodne z nowymi przepisami. Dotyczy to również stron www instytucji i organów administracji publicznej, tworzonych w zgodzie ze standardem WCAG 2.0, spełniających wymogi Rozporządzenia Rady Ministrów z dnia 12 kwietnia 2012 r. w sprawie Krajowych Ram Interoperacyjności. Strony www dostępne dla osób niepełnosprawnych na podstawie przytoczonego rozporządzenia i specyfikacji WCAG 2.0 nie są bowiem zwolnione z przestrzegania ustawy Prawo Telekomunikacyjne – obydwa przepisy są równorzędne. Tym samym rośnie poziom skomplikowania implementacji mechanizmów WCAG 2.0 – strony www tego typu powinny umożliwiać decyzję o obsłudze cookies również wszystkim grupom ludzi niepełnosprawnych: z dysfunkcjami wzroku, ruchu, koncentracji i postrzegania.

Strona www Kancelarii Prawnej Kopoczynski

Intro to krótka animacja odtwarzana przed otwarciem głównej strony WWW. Internauci nie lubią intra – w czasach, gdy wszystkim brakuje czasu jedynie opóźnia ono dostęp do głównej treści strony WWW. Wymagając opracowania intro do swojej nowej strony WWW, kancelaria prawna Kopoczyński adwokaci i radcowie prawni z Gdyni, postawiła przed nami – wydawałoby się – karkołomne zadanie. Drugim priorytetem strony miało być bowiem poprawienie pozycji firmy w wyszukiwarkach internetowych, głównie w Google. Oba cele tymczasem pozornie się wykluczają, gdyż Google czytając intro, podstawową część strony traktuje zazwyczaj jak treść drugorzędną.

Rozważając, jak pogodzić ogień z wodą, postanowiliśmy… myśleć jak Google. Komputery wprawdzie nie myślą, jednak wykonują określone przez programistów schematy działania. Nie inaczej jest z Google. Zatem pomyślmy: wchodzi Google na stronę i widzi efektowne, flashowe intro… Znaczy dokładnie to Google widzi jeden plik: intro.swf.
– Mam do czynienia ze stroną we flashu, nic ciekawego, idę sobie stąd – „myśli” algorytm Google.
Nieważne, że pod spodem znajduje się wartościowa, pełna treści strona WWW. U Google podobnie jak u ludzi – pierwsze wrażenie ma znaczenie.
Flash zatem odpada, ale mamy zrobić intro… A gdyby tak? – wchodzi Google na stronę i widzi ciekawą, pełną treści witrynę. Czyta, indeksuje. Wprawdzie otwiera się gdzieś ponad tą treścią jakieś okno, ale to nie ma większego znaczenia. Z ciekawości Google zajrzy w to okno: – O Swiffy! Fajnie. Czytam dalej.
Ta sama strona oglądana oczami człowieka: wchodzę na stronę, w tle widać witrynę z treścią, logo, menu, z przodu otwiera się okienko z efektowną animacją, jednak nie ukrywa strony. Nie chcę oglądać animacji – jedno kliknięcie i zniknęła, mogę czytać stronę.
Do wyjaśnienia został jeszcze tylko tajemniczy Swiffy. To nowa, będąca w fazie rozwojowej, wtyczka autorstwa Google pozwalająca konwertować animacje Flash do formatu HTML5. Dzięki temu na stronie nie ma Flasha, a sama wtyczka, jako produkt Google, tworzy przyjazne środowisko dla przeglądarki Google. Animacje konwertowane Swiffy poprawnie odtwarzają się nie tylko na komputerach, ale i na większości urządzeń mobilnych.

Produktowa strona marki Bobono

Mama i dziecko – tak brzmi slogan w logo Bobono, nowej marki polskich produktów dla niemowląt, kreowanej przez jednego z najbardziej uznanych producentów dziecięcych w Polsce, skierowanej na rynki włosko, niemiecko i anglojęzyczne. My Sweet Baby zaufało naszej znajomości europejskiego rynku internetowego i powierzyło stworzenie wizerunkowej strony nowej marki.

Powstała elegancka, minimalistyczna witryna wizerunkowa prezentująca produkty i podkreślająca ich jakość. Logo, sesja zdjęciowa, krótkie opisy – czy to nie za mało? Jak dla współczesnego, wybrednego konsumenta, owszem. Jednak ta marka kierowana jest przede wszystkim do przyszłych mam i mam niemowląt. Panie w błogosławionym stanie i wczesnym okresie macierzyństwa nie mają głowy do czytania nawet najlepszych marketingowo opisów zalet produktów – zerkną, czy produkty im się podobają i… powinny zapamiętać logo. To wszystko. Strategia wynikająca nie tylko z badań, ale po prostu z obserwacji naszych towarzyszek życia i koleżanek. Strona spotkała się z ciepłym przyjęciem wśród europejskich rodziców.

Nowe serwery Entera Studio WWW

Dbamy, by projektowanie stron www było usługą na najwyższym poziomie – dlatego do dyspozycji naszych Klientów oddajemy nowe serwery testowe.

Projektowanie stron www każdorazowo jest usługą stricte indywidualną, dostosowaną do potrzeb Klienta i specyfiki danej realizacji. Wymaga to stałego kontaku i współpracy na linii klient-wykonawca. Nowe, dedykowane serwery, które uruchomiliśmy w tym miesiącu, dzięki podwyższonej przepustowości pozwolą na sprawniejsze ocenianie przez naszych klientów wersji testowych ich stron www, co – liczymy – przyczyni się do Państwa jeszcze większej satysfakcji ze współpracy z naszym studiem.

Tagi na stronie www kliniki Spameed

Dobrze wykonana strona www pozycjonuje się sama – tezę tę udowadniamy nową stroną Profesjonalnej Kliniki Urody i Zdrowia Spameed z Gdańska.

Strona została przebudowana i odświeżona 3 miesiące temu, zgodnie z nowymi wytycznymi Google. Obecnie zajmuje topowe pozycje w Google na zadane frazy bez potrzeby tzw. pozycjonowania. Właśnie po to jest SEO i te wszechobecne, dyskretne tagi.