Responsywne sklepy na miarę mobilności

Pamiętacie, jak w styczniu ubiegłego roku pisaliśmy o wadach i zaletach responsywnych layoutów stron www, czyli takich, które same dostosowują się do szerokości ekranu urządzenia, na którym są wyświetlane? Jeśli nie, to możecie sobie przypomnieć nasze rozważania tutaj.

Minął rok i responsywne strony www stały się obowiązującym standardem, zwłaszcza po niedawnej rekomendacji Google dla tworzenia responsywnych stron www. Niesie to potwierdzenie, wielokrotnie przez nas głoszonej tezy, wynikającej z obserwacji zachowań internautów i popartej badaniami, że internet staje się coraz bardziej mobilny – coraz częściej przeglądamy strony www i robimy zakupy na telefonach i tabletach. No właśnie… robimy zakupy. I tu powstało niemałe zamieszanie dotyczące wspomnianego Google i sklepów responsywnych. W wypadku witryn e-commerce, design responsywny niekiedy nie jest „jedynym słusznym wyborem zalecanym przez Google”. Wszystko zależy od profilu sklepu, usług dodatkowych, a przede wszystkim stałych klientów sklepu. Choć dla 90% sklepów internetowych design responsywny jest obecnie najleszym możliwym rozwiązaniem, pozwalającym ograniczać koszty utrzymania strony, a jednocześnie dotrzeć do klientów mobilnym kanałem sprzedaży, czasami lepszym wyborem od responsywnego layoutu witryny e-commerce będzie dedykowana wersja mobilna dostępna z poziomu przeglądarki w telefonie komórkowym lub aplikacje mobilne do pobrania i zainstalowania przez użytkowników na ich urządzeniach. Po deklaracji Google, zalecającej tworzenie witryn responsywnych, co wg. operatorów tej wyszukiwarki miało poprawiać SEO (z powodu nie dublowania zawartości sklepu internetowego na dwóch odrębnych witrynach: przeznaczonej dla komputerów i mobilnej), w internecie podniosły się głosy sprzeciwu. Oświadczenie to jest bowiem o tyle nietrafne, że dobrze zaprojektowana wersja mobilna nadal pozostaje częścią podstawowego sklepu – podczas przeglądania takiej strony nie zmieniana jest domena sklepu internetowego, a jedynie, na podstawie detekcji przeglądarki, z której korzysta internauta, do możliwości jego urządzenia dostosowany zostaje szablon graficzny. Oświadczenie Google zapewne dotyczyło sytuacji, gdy istnieje odrębna strona mobilna podstawowego sklepu, zazwyczaj osadzana w subdomenie z literką m. na początku (np. m.allegro.pl dla domeny allegro.pl otwieranej na telefonie komórkowym). Google dość szybko zauważyło niezręczność i wydało oświadczenie o treści „Posiadanie dedykowanej wersji mobilnej nie obniża SEO”. Zatem wybór wciąż jest otwarty: sklep responsywny, z wersją mobilną, z aplikacjami, czy może wszystko na raz? A co będzie najlepsze dla klientów tego sklepu i pozwoli zwiększyć dotarcie oraz sprzedaż?

Trójwymiarowe produkty dla sklepów internetowych - technologia stosowana przez Entera Studio WWW

Po co zadawać pytania o produkt w sklepie internetowym, kiedy można go obejrzeć z każdej strony? Trójwymiarowe produkty to technologia prezentacji wszelkiego rodzaju produktów w serwisach www e-commerce i prezentacyjnych, pozwalająca w łatwy i intuicyjny sposób zaprezentować kontrahentom i klientom bazę ofertową. Dlatego wciąż rozwijamy stosowaną przez nas technologię trójwymiarowej wizualizacji produktów.

W nowej odsłonie technikę Flash zastąpiliśmy całkowicie kodem HTML5, dzięki czemu, oprócz stron www dla komputerów osobistych możemy stosować tę technikę prezentacji produktów również w sklepach responsywnych i mobilnych. Oprócz zapewnienia pełnego wsparcia dla pozycjonowania produktów zgodnie z wytycznymi Google, wprowadziliśmy również pełną obsługę trójwymiarowych modeli za pomocą dotyku na ekranach dotykowych (od stacjonarnych systemów prezentacyjnych do ekranów telefonów komórkowych i tabletów). Trójwymiarowych modeli produktów możemy bez problemów użyć w większości popularnych platform sklepowych i systemów sprzedażowych, również open source, takich jak Magento, czy PrestaShop.

 

Przykładowy produkt trójwymiarowy

Wizualizacja przestrzenna wózka marki Venicci. Do sterowania obiektem można użyć przycisków kontrolnych lub klikając na wózek i „przeciągając” myszką obracać obiekt.

 

Portal social media commerce - proometeusz.pl

Czy kolejny portal społecznościowy ma sens? W świecie webmasterów mawia się, że jeszcze tylko naiwni wierzą w siłę social media. W ich siłę, jako narzędzia darmowego marketingu szeptanego raczej nie należy już wierzyć – wraz z monetyzacją największych serwisów tego typu, zalaniem użytkowników reklamami i kampaniami „szeptanymi” polegającymi na polecaniu usług i produktów przez znajomych, którzy nigdy nawet o danym produkcie, czy usłudze nie słyszeli (mowa naturalnie o ostatnich praktykach Facebooka) ich magia, jako narzędzia rzetelnego marketingu szeptanego uleciała bezpowrotnie. Stały się po prostu kolejnym narzędziem komunikacji i rozrywki.

Coraz bardziej wzrasta jednak znaczenie niszowych portali www z elementami social media lecz w istocie będących witrynami oferującymi wartościowe porady, usługi e-commerce itp., zwanymi social media commerce. W ten nurt wpisuje się niedawno oddany przez nas do użytku portal Proometeusz – serwis o tematyce prawno-biznesowej, kierowany do specjalistów w zakresie prawa i finansów, użytkownikom oferujący przede wszystkim usługi płatne – zwłaszcza poradnictwo i rozwiązywanie problemów prawnych. Rozbudowana część social media o funkcjonalnościach przewyższających Facebooka i YouTuba razem wziętych jest tu tylko… dodatkiem mającym uprzyjemnić korzystanie z portalu: można zawrzeć znajomość, przesyłać sobie wiadomości, prowadzić swój profil, lubić, komentować, prowadzić swoją stronę, pisać bloga, dyskutować na forum, czy komunikować się za pomocą komunikatorów. To jednak tylko swoiste uzupełnienie, dodatek do usług płatnych: możliwości prowadzenia własnego e-Biura, zawierania poprzez portal umów certyfikowanych elektronicznie, wystawiania ogłoszeń, publikowania ofert pracy i korzystania z narzędzi budowania kariery, organizowania wideo-konferencji itp. narzędzi stricte biznesowych. Stosunek funkcji rozrywkowo-społecznościowych do użytecznych narzędzi biznesowych i e-commerce w przypadku portalu Proometeusz wynosi 1 do 6, co jest wartością charakterystyczną dla portali social media commerce. Sam portal jest wciąż w wersji beta i… długo w niej pozostanie, gdyż podstawowym założeniem takich projektów jest ciągły rozwój poprzez oferowanie użytkownikom kolejnych, innowacyjnych usług. Część commerce będzie zatem nieustannie rozwijana. Część social media rozwijana będzie raczej w stopniu niewielkim, gdyż już obecnie oferuje praktycznie wszystko, co można w tej dziedzinie wymyślić.

Oficjalna grafika z okazji 10. urodzin Wordpressa

WordPress świętuje 10. urodziny. Dokładnie 27 maja 2003 roku Matt Mullenweg i Mike’a Little udostępnili pierwszą wersję swojej platformy blogowej. Sami twórcy nie spodziewali się, że niepozorny system do pisania blogów, z czasem rozwinie się w potężne narzędzie, bardziej przypominające zaawansowany CMS do budowy stron www, jak skromne narzędzie blogera.

Dziś WordPress to jedna z najpopularniejszych i najpotężniejszych platform CMS open source, do której – żartobliwie mówiąc – są już chyba nawet wtyczki parzące kawę i robiące naleśniki (wtyczki z przepisami są!). Źródła sukcesu WordPressa upatrujemy w niezwykłej łatwości i intuicyjności obsługi tej platformy, a także dbaniu zespołu tysięcy programistów z całego świata zaangażowanych w projekt (w czym, nie chwaląc się, mamy swój skromny udział) o w miarę sensowny poziom wstecznej kompatybilności. WordPress nie jest bez wad – mamy do niego np. pretensje o dziury w zabezpieczeniach – niemniej jednak drobne wpadki w rękach sprawnego programisty daje się szybko wyeliminować, a zalety WordPressa zdecydowanie przewyższają jego wady. Cóż, za miarę sukcesu niech posłużą dane statystyczne: obecnie na WordPressie oparte jest ok. 17 proc. wszystkich stron www (dane dla całego globu), użytkownicy WordPressa w ciągu każdej minuty piszą ok. 350 artykułów na swoich stronach, platforma została w pełni przetłumaczona na 76 języków, a najnowszą wersję WordPressa pobrano z serwerów projektu 21 milionów razy.

Czat wideo na stronie www

Dziś klika słów z zakresu analizy opłacalności i planowania strategii rozwoju serwisu www. Do popełnienia tego wpisu „natchnęła” nas wzrastająca popularność stron www oferujących komunikację pomiędzy użytkownikami za pomocą strumieniowania audio-wideo (popularnie mówiąc – czat z wideo kamerkami).

Jak głosiła niegdyś kontrowersyjna kampania reklamowa jednego z operatorów komórkowych „my nie umiemy opowiadać bajek” – same koszty wykonania systemu pozwalającego na komunikację audio-wideo na żywo są porównywalne do innych rozbudowanych rozwiązań programowych – to po prostu oprogramowanie, jak każde inne. Planując taką stronę www trzeba się jednak liczyć ze znacznymi nakładami na jej późniejsze utrzymanie i rozwój. Co tu dużo owijać w bawełnę? – nie wróżymy przyszłości stronie www z komunikacją audio-wideo, której opracowania nie poprzedza przygotowanie przemyślanego i realnego biznesplanu. Jakkolwiek kolokwialnie by to nie brzmiało – czat z kamerkami na popularnym hostingu „nie pójdzie”. Potrzeba minimum serwerów VPS, jeszcze lepiej serwerów dedykowanych (od razu warto sprawdzać możliwość negocjacji rabatów u dostawcy w miarę rozwoju serwisu – przy przemyślanej promocji strony www, raczej szybciej, niż później będą potrzebne kolejne serwery do obsługi szybko wzrastającego ruchu). Niezbędna będzie także odpowiednia przepustowość łącz internetowych komunikujących serwery z siecią, które „nie zapchają się” ilością danych. Alternatywnie, można również korzystać z usług specjalizowanych hostingów oferujących pakiety połączeń audio-wideo za zryczałtowaną, miesięczną opłatę (zazwyczaj rozwiązanie takie wychodzi drożej od serwerów dedykowanych, jednak zapewnia większą wygodę – o konserwację serwerów i parametry strumieni audio-wideo dba dostawca usługi).

Którą opcję wybrać? Odpowiedzi na to pytanie zazwyczaj pozwala udzielić opracowanie dokładnego briefingu strony www, jej strategii promocji i rozwoju. Małej firmie szkoleniowej, od czasu do czasu organizującej webinaria z wideokonferencją dla kilku użytkowników wystarczy niedrogi serwer VPS. Przyjmijmy jednak, że planujemy duży, dobrze prosperujący serwis opierający się głównie o komunikację audio-wideo pomiędzy użytkownikami, dla którego w strategii rozwoju zakładamy, że po kilku miesiącach istnienia będzie miał nieustannie, przez całą dobę, przeciętnie ok. 100-200 osób nadających i nawet kilkanaście tysięcy oglądających. Serwis ma ponadto oferować docelowo jakość transmisji HD. Zaczynamy od uzbrojenia się w wiedzę, przesyłu jakiej ilości danych wymaga transmisja audio-wideo w różnych trybach (tabele, włącznie z uwzględnianiem kompresji, są ogólnie dostępne w sieci). Mnożymy wyniki dla planowanej, określonej jakości transmisji na jednego użytkownika przez ilość planowanych użytkowników na stronie korzystających z funkcji audio-wideo jednocześnie – mając takie dane łatwo zaplanować jakie będą potrzebne nam przepustowości łącz internetowych oraz jakiej wydajności serwerów będziemy potrzebować do obsługi strony na danym etapie jej rozwoju, a to pozwala w miarę precyzyjnie oszacować i zaplanować koszty włącznie z perspektywą średnioterminową.

A co jeśli nasza strona www odniesie sukces? Znamy kilka przypadków naprawdę dużych, silnie obciążonych serwisów www opartych o komunikację audio-wideo, gdzie analiza wykazała, że najkorzystniejszą opcją będzie wybudowanie i utrzymywanie własnej serwerowni, gdyż pomimo początkowych, dużych kosztów inwestycji i kosztów pracy personelu serwerowni, nakłady zwracają się w rozliczeniu wieloletnim stosunkowo szybko i w sumie są niższe od wynajmowania serwerowni lub hostingów wideo – i takich wyników analizy już po kilku miesiącach działania strony www życzymy każdemu posiadaczowi serwisu typu „czat z wideokamerkami”.

Jak w Entera Studio WWW reagujemy na zgłoszenia awarii

Strona www nie działa! – niezbyt często, jednak zdarza się, że w telefonie, czy e-mailu otrzymujemy taką alarmującą wiadomość. Na każdą stronę www składa się minimum kilkaset tysięcy linii kodu, a całość liczy od kilku, do nawet kilkuset tysięcy plików. Wszystko to pracuje w określonym środowisku serwerowym. Czasami wystarczy drobna zmiana w konfiguracji serwera wprowadzona przez dostawcę usługi hostingowej i, przy takim rozmiarze danych składających się na stronę www, błąd może pojawić się w sposób nieprzewidziany. Awaria zdarzyć się może, jednak najważniejsza w takich sytuacjach jest szybkość reakcji.

Problem nie dotyczy serwerów własnych, dedykowanych, czy VPS, gdzie właściciel strony www ma pełną kontrolę nad oprogramowaniem serwera, a stron hostowanych – zmiany w oprogramowaniu serwerów wprowadza Administrator dostawcy usługi hostingowej, a klienci nie mają wpływu na ich głębokość i rozległość. W informatyce tymczasem wszystkiego przewidzieć się nie da. Nie ma możliwości, aby Administrator dużego serwera hostingowego był w stanie przewidzieć wszystkie ewentualności i konflikty jakie mogą pojawić się z rozmaitymi skryptami zainstalowanymi na kontach użytkowników, zwłaszcza gdy tych kont są tysiące, a na nich tysiące stron www wykonanych w różnych technologiach. Gdyby chciano przeanalizować wszystkie możliwości, nie wprowadzono by ulepszeń nigdy, bowiem nieustannie trwałaby analiza, w czasie której pojawiałyby się nowe wersje oprogramowania, zatem trzeba by zaczynać analizę od nowa i tak w nieskończoność.

W grudniu i styczniu najwięksi w Polsce dostawcy hostingu wprowadzali szereg zmian na swoich serwerach związanych z udostępnieniem nowych usług. Zespół reakcji technicznej Entery trwał w związku z tym w stanie podwyższonej gotowości. Pół biedy bowiem, gdy „error” wystąpi w godzinach służbowych – możemy reagować natychmiast. Awarie powodowane przez hostingi mają jednak to do siebie, że najczęściej pojawiają się poza godzinami pracy większości właścicieli i odbiorców stron www – noc to idealny czas dla Adminów dużych serwerów, gdyż ruch jest niewielki, zatem chętnie go wykorzystują na wprowadzanie i testowanie zmian. Na takie okazje mamy w Enterze wewnętrzny system powiadamiania o zgłoszeniach awarii, który poza godzinami pracy rozsyła powiadomienia e-mail i smsy oraz dzwoni do naszych administratorów, tak, aby awarie były usuwane w możliwie jak najkrótszym czasie. Zdajemy sobie bowiem sprawę z faktu, że każda godzina niedostępności strony www, czy sklepu internetowego w sieci oznacza straty dla firmy będącej właścicielem strony – wizerunkowe lub w braku sprzedaży.

Nowe Prawo Telekomunikacyjne nakłada na strony www, korzystające z cookies, obowiązek wyraźnego informowania o tym użytkownika

Rozwiewamy obawy związane z nowym prawem telekomunikacyjnym – nie trzeba masowo przerabiać stron www. Zmiany w przepisach niewątpliwie powinni jednak poznać webmasterzy projektujący nowe strony www, aby nie narażać swoich klientów na kłopoty. Nowelizacja ustawy Prawo Telekomunikacyjne powoduje również trudniejszą implementację mechanizmów WCAG 2.0 na stronach www.

Wczoraj weszła w życie nowa ustawa Prawo Telekomunikacyjne, która wprowadza sporo zmian w przepisach, w tym dotyczących systemów teleinformatycznych – co za tym idzie reguluje m.in. funkcjonowanie stron www. Z zakresu witryn internetowych w nowelizacji poruszono między innymi kwestię tzw. cookies (ciasteczek).

Cookies to niewielkie pliki, zawierające informacje tekstowe, wysyłane przez serwer www i zapisywane na twardym dysku użytkownika. Ciasteczeka pozwalają na odczytanie informacji w nich zawartych jedynie serwerowi, który je utworzył i służą do ułatwienia obsługi witryny – zapamiętują spersonalizowane ustawienia, dane logowania i tego typu informacje pomagające w korzystaniu ze strony www po ponownym jej odwiedzeniu. Cookies są najczęściej wykorzystywane w sklepach internetowych, na stronach wymagających logowania i do monitorowania aktywności odwiedzających.

Znowelizowana ustawa Prawo Telekomunikacyjne nakłada na „strony internetowe”, które korzystają z cookies, czyli w praktyce na ich właścicieli, obowiązek jasnego i wyraźnego informowania o tym fakcie użytkownika oraz umożliwienia mu wyboru, czy życzy sobie korzystać z cookies, czy nie. Większość obecnie funkcjonujących stron www tymczasem takiego mechanizmu nie oferuje. Wprowadzenie nowego prawa nie oznacza jednak konieczności masowego przeprogramowywania istniejących stron www. Warto zaznaczyć, że nowe prawo dotyczy tylko stron utrzymywanych na serwerach w obrębie Polski, czy też szerzej – jako, że wprowadzenie tych przepisów jest dostosowywaniem polskiego prawa do prawa Unii Europejskiej – na terenie UE.
W ustawie przewidziano ponadto domyślną zgodę, lub nie, użytkownika na przetwarzanie cookies na stronie www w zależności od ustawień przeglądarki internetowej, z której korzysta internauta. Wszystkie przeglądarki mają tymczasem domyślnie włączoną obsługę cookies, a 99 procent użytkowników nie zmienia tych opcji, tak więc domyślnie zgodę wyraża. Jeśli ktoś ma w przeglądarce zablokowaną obsługę cookies, w myśl ustawy zgody nie wyraża, jednak nawet w przypadku już istniejących stron www ciasteczka nie będą przetwarzane – przeglądarka odmawia ich przyjęcia od serwera www. W praktyce zatem dopiero internauta odwiedzający nową stronę www i mający w przeglądarce internetowej ustawioną opcję pytania o zgodę na obsługę cookies powinien zobaczyć komunikat z pytaniem o zgodę.

W przypadku istniejących stron www nowelizację prawa telekomunikacyjnego można zatem uznać za ciekawostkę, bez większego znaczenia, choć naturalnie mogą zdarzyć się jednostkowe przypadki jej naruszenia.
O zmianach w tej ustawie powinni jednak pamiętać webmasterzy projektujący i udostępniający nowe strony www implementując mechanizmy obsługi cookies zgodne z nowymi przepisami. Dotyczy to również stron www instytucji i organów administracji publicznej, tworzonych w zgodzie ze standardem WCAG 2.0, spełniających wymogi Rozporządzenia Rady Ministrów z dnia 12 kwietnia 2012 r. w sprawie Krajowych Ram Interoperacyjności. Strony www dostępne dla osób niepełnosprawnych na podstawie przytoczonego rozporządzenia i specyfikacji WCAG 2.0 nie są bowiem zwolnione z przestrzegania ustawy Prawo Telekomunikacyjne – obydwa przepisy są równorzędne. Tym samym rośnie poziom skomplikowania implementacji mechanizmów WCAG 2.0 – strony www tego typu powinny umożliwiać decyzję o obsłudze cookies również wszystkim grupom ludzi niepełnosprawnych: z dysfunkcjami wzroku, ruchu, koncentracji i postrzegania.

Audyt WCAG 2.0 w Entera Studio WWW

Zadajecie nam Państwo coraz więcej pytań dotyczących audytu dostępności stron internetowych dla osób niepełnosprawnych i dostosowywania ich do wymagań specyfikacji WCAG 2.0, zgodnie z Rozporządzeniem Rady Ministrów z dnia 12 kwietnia 2012 r. w sprawie Krajowych Ram Interoperacyjności. Obawy budzą zwłaszcza koszty, które należy ponieść na sam audyt WCAG 2.0, a następnie koszty związane z wprowadzeniem w życie zaleceń audytu. Przeprowadziliśmy już audyt WCAG 2.0 ponad 200 stron internetowych i śmiało możemy rozwiać te obawy: nie taki audyt WCAG 2.0 straszny…

Wprowadzona prawnie Rozporządzeniem Rady Ministrów z dnia 12 kwietnia 2012 r. konieczność dostosowania przez podmioty administracji publicznej i inne jednostki budżetowe swoich stron internetowych do potrzeb osób niepełnosprawnych zgodnie ze specyfikacją WCAG 2.0, stanowi próbę dostosowania polskiego prawa do prawodawstwa Unii Europejskiej i wynika z obowiązków Polski jako członka Wspólnoty. Jeszcze raz rozwiejmy narosły wobec tego faktu mit krążący po internecie – strony internetowe do wymagań WCAG 2.0, zgodnie z przywołanym rozporządzeniem, mają obowiązek dostosować wyłącznie jednostki administracyjne i organy publiczne. Obowiązek ten nie dotyczy prywatnych firm, ani osób indywidualnych prowadzących strony www, blogi, czy inne formy przekazu internetowego.
Warto również rozwiać sieciowe mity dotyczące kosztów audytu WCAG 2.0 i dostosowywania stron internetowych do wymagań Rozporządzenia Rady Ministrów z dnia 12 kwietnia 2012 r. Rzeczywiście, biorąc pod uwagę rozbudowanie specyfikacji WCAG 2.0, liczącej z dodatkami i przypisami ok. 2000 stron maszynopisu, mogłoby się wydawać, że koszty te będą ogromne, a jeszcze większe dostosowania strony do wymagań WCAG 2.0 zgodnie z wynikami audytu, jednak pozory bywają mylące. Rozporządzenie Rady Ministrów z dnia 12 kwietnia 2012 r. nie zakłada i nie nakazuje dostosowywania stron internetowych do pełnej zgodności z WCAG 2.0, a jedynie do części tej specyfikacji – najbardziej istotnej z punktu widzenia osób niepełnosprawnych. Rozporządzenie nakłada obowiązek dostosowania stron www według wybranych 36 pozycji specyfikacji WCAG 2.0, pogrupowanych w 12 wymagań, według 4 zasad, jedynie w 10 punktach do poziomu AA (drugi, z trzech możliwych), w pozostałych do poziomu A. Nie jest wymagany zatem pełny audyt WCAG 2.0 i dostosowywanie stron do całości tej specyfikacji, co ma znaczący wpływ na redukcję kosztów i taka też była intencja ustawodawcy podczas opracowywania wymagań opublikowanych w rozporządzeniu.
Należy jednak zwrócić uwagę, iż wspomniane rozporządzenie nakłada na instytucje publiczne niezbywalny obowiązek prawny oraz określa minimalne wymagania, które musi spełnić sam audyt WCAG 2.0. Wymagania te wynikają bezpośrednio ze specyfikacji WCAG 2.0 i ich niespełnienie może skutkować zakwestionowaniem audytu WCAG 2.0 przez instytucje kontrolne. Minimalnych wymagań nigdy nie spełni audyt WCAG 2.0 przeprowadzony przez jednego „specjalistę” lub jednoosobową „specjalistyczną” firmę. W rzetelnie przeprowadzonym audycie WCAG 2.0 bierze udział minimum 6-oosobowy zespół specjalistów – złożony nie tylko z programistów oceniających techniczną budowę kodu strony internetowej i zastosowane rozwiązania z zakresu user experience lecz również samych zainteresowanych: osób z różnymi dysfunkcjami, do których kierowane jest nowe prawo. Audyt powinien zostać również skontrolowany i zatwierdzony przez specjalistę ds. rehabilitacji osób niepełnosprawnych. Audyt WCAG 2.0 prowadzony bez udziału osób niepełnosprawnych nigdy nie będzie rzetelny i nie spełnia wymagań Rozporządzenia Rady Ministrów z dnia 12 kwietnia 2012 r. w sprawie Krajowych Ram Interoperacyjności, które to rozporządzenie w dużej mierze opiera się na specyfikacji WCAG 2.0. Sama specyfikacja bowiem, w swoich założeniach, przewiduje oprócz kontroli technicznych aspektów działania, dostępności i dostosowania strony internetowej, kontrolę jej faktycznego odbioru przez osoby niepełnosprawne.

Venicci - produkty w 3D

Wiecie ile zdjęć jest potrzebnych do stworzenia trójwymiarowej, interaktywnej prezentacji produktu? Minimum 360 – ustawiamy modela na obrotowym stojaku i pstrykamy fotę co jeden stopień obrotu. Lepiej jednak ustawić aparat na pstrykanie seryjne, bowiem im więcej zdjęć, tym płynniejsza animacja. Chcecie zobaczyć o czym mowa? Zerknijcie poniżej.

Wprawdzie trójwymiarowe, interaktywne animacje produktów najlepiej jest wykonywać dysponując inżynierskimi plikami projektowymi umożliwiającymi wizualizację przestrzenną, bowiem pozwala to na uzyskanie dowolnej ilości ujęć i łatwe korekty, a współczesne metody renderingu i raytracingu oferują fotorealistyczną jakość, niemniej jednak nie zawsze takie pliki są osiągalne, albo spec od modelowania 3D pojechał właśnie na urlop. Wówczas można kreatywnie wykorzystać… starą, dobrą fotografię. Metoda jest droższa, bowiem wymaga sporo cierpliwości i znaczne większego nakładu pracy, jednak efekty, naszym zdaniem, są ciekawe. Można je nawet uznać za lepsze, niż w wizualizacjach generowanych z komputera – obiekty 3D wyglądają bowiem bardzo naturalnie. Jak to się robi? Przede wszystkim trzeba zadbać o równomierne oświetlenie w studio i wyeliminować cienie. Potem stawiamy modela na obrotowym stojaku i pstrykamy fotę co jeden stopień obrotu. Programista pisze stosowny skrypt wyświetlający serię takich zdjęć i voila – gotowe! I tylko grafik siedzi i szparuje (usuwa tło) z ok. 450 zdjęć na jeden model…

A tak to wygląda (do sterowania obiektem można użyć przycisków kontrolnych lub klikając na wózek i „przeciągając” myszką obracać obiekt):

 

Audyt WCAG 2.0 w Entera Studio WWW

Specyfikacją WCAG (najpierw w wersji 1.0, obecnie 2.0) zajmujemy się od dość długiego czasu. Ostatnio wokół tematu pojawiło się sporo pytań, związanych z uregulowaniami prawnymi dotyczącymi systemów teleinformatycznych wprowadzonymi w tym roku przez Radę Ministrów. Tym wpisem postaramy się przynajmniej częściowo odpowiedzieć na najważniejsze pytania.

Czym jest WCAG 2.0?
WCAG 2.0. jest instrukcją dla webdesignerów, opracowaną przez agendę Organizacji Narodów Zjednoczonych UNDP, dotyczącą dostępności stron www dla osób niepełnosprawnych z rozmaitymi dysfunkcjami. Specyfikację tę można porównać do dokumentów opisujących zasady likwidacji barier architektonicznych w urzędach, czy szkołach – opisuje, jak budować podjazdy, windy dla wózków inwalidzkich i inne udogodnienia sprawiające, że dany obiekt staje się dostępny dla osób niepełnosprawnych, jednak w odniesieniu do strony www, czy systemu informatycznego. Stronę zgodną z WCAG 2.0 powinny prawidłowo odczytywać syntezatory mowy używane przez osoby niedowidzące i niewidome, kontrasty tekstu i czcionki muszą być na tyle duże, aby stronę www mogli odczytać ludzie o słabym wzroku, a całość musi dać się obsłużyć nie tylko myszką, ale i klawiaturą oraz innymi urządzeniami wejścia-wyjścia. Numeracja 2.0 oznacza, że jest to druga, rozszerzona i poprawiona wersja dokumentu. Obecnie specyfikacja wraz z załącznikami liczy ponad 1500 stron zaleceń.

Czy każdy musi dostosowywać stronę www do wymagań WCAG 2.0?
Zgodnie z rozporządzeniem Rady Ministrów z dnia 12 kwietnia 2012 r. w sprawie Krajowych Ram Interoperacyjności obowiązek taki mają jednostki i organy administracji publicznej oferujące ogólnodostępne systemy informatyczne.

Czy na stronach zgodnych z WCAG trzeba rezygnować z umieszczania multimediów?
Treści multimedialne można osadziać w tle lub umieścić je tak w kontencie, aby nie ograniczały nawigacji. Jeśli multimedia mają stanowić istotną część informacyjną kontentu muszą zostać przygotowane w odpowiedni sposób. Np. film, oprócz wersji ogólnej, powinien być przygotowany w wersjach z audiodeskrypcją (lektor opowiada co dzieje się na filmie) dla osób niewidzących, napisami lub tłumaczem języka migowego dla osób niesłyszących. Standardowe odtwarzacze, np. YouTube, należy dodatkowym oprogramowaniem rozszerzyć o możliwość sterowania za pomocą klawiatury.

Dlaczego w audytach zgodności strony www z WCAG 2.0 uczestniczą osoby niepełnosprawne?
Audyt WCAG 2.0 można przeprowadzić rzetelnie jedynie przy udziale osób z różnymi rodzajami niepełnosprawności. Jest to zalecenie zawarte w specyfikacji, wynikające z faktu, że techniczne badanie strony za pomocą różnych narzędzi przeprowadzone przez osobę pełnosprawną bywa niewystarczające, gdyż inna jest percepcja np. człowieka o doskonałym wzroku, a inna osoby słabowidzącej. Strona zgodna z WCAG 2.0 wymaga testów „na żywym organizmie”.