Skontaktuj się z nami





* pole wymagane
22 Lipiec 2014

Mnie to nie dotyczy – czyli jak można zignorować ważny problem

Oceń: 1 Gwiazdka2 Gwiazdki3 Gwiazdki4 Gwiazdki5 Gwiazdek
Loading...

“Wie pan, działamy na tym już dość długi czas i do tej pory jakoś to funkcjonuje” – powiedział do serwisanta komputerowego pewien firmowy manager, próbując delikatnie wytłumaczyć, że rozkręcanie przegrzewającej się stacji roboczej nie jest aktualnie aż tak potrzebne, jak mogłoby się wydawać. Nie mógł jednak widzieć miny pracownika, spoglądającego porozumiewawczo na serwisanta wzrokiem mówiącym: “na tym sprzęcie się nie da pracować…”.

To oczywiste, że każdemu pracodawcy zależy na ogólnie pojętej “wydajności zespołu”. Wymagania wobec pracowników biurowych, których głównym narzędziem pracy jest komputer, można – na ogół – zamknąć w pewnym uproszczeniu, sprowadzającym się do: “rób wiele na raz, nie marnuj firmie czasu”. Pomijając fakt, że 93% pracowników używa Internetu do celów prywatnych[1], gdzie jeszcze uciekać mogą cenne minuty, a nawet godziny, za jakie płacimy lub dostajemy wynagrodzenie?
Owe cenne chwile mogą po prostu pozostać “zamrożone” w spowolnionym działaniu podstawowego narzędzia pracownika: komputera.

Po pierwsze: kultura pracy

Wydaje Ci się, że pomieszczenie, w którym pracujesz jest czyste? Być może. Z wierzchu. Kurz to jednak kurz i nie da się go pozbyć na stałe. Nosisz go z sobą na ubraniu, a dodatkowo samemu go produkujesz, gdy łuszczy się Twój naskórek. Kilka miesięcy (a może nawet lat?) “zasysania” takich drobinek do wnętrza obudowy komputerowej i otrzymamy warstwę brudu godną stuletniego strychu. Dokładniej tym jak na nasz komputer działa taka “warstewka” pisaliśmy tu <link do arta o kurzu>. Mocno zakurzona obudowa komputera nie zapewnia odpowiedniej cyrkulacji powietrza, zaś brud zgromadzony na radiatorach i wentylatorach utrudnia oddawanie ciepła z poszczególnych elementów sprzętu – który przegrzewając się – spowalnia.
Strony internetowe, arkusze kalkulacyjne, wszelkie programy – wszystko otwiera się wolno, działa bez jakiejkolwiek płynności? Odkręć boczną klapę komputera… gdy jest tam “dywanik”, to będzie to jeden z głównych podejrzanych.
Jedna ważna uwaga: w większości “domowych” komputerów grzejący się sprzęt poznamy po charakterystycznym “wyciu” wiatraków. W sprzęcie typu “biurowego” nie zawsze tak jest – przykładem mogą być niektóre stacje HP Compaq, które nawet najwyższym obciążeniem nie wydają z siebie najmniejszego szmeru… Najlepszym rozwiązaniem jest okresowe sprawdzanie temperatur płyty głównej prostymi i szybkimi w użyciu programami: SpeedFan, CoreTemp etc.

Po drugie: pamięć

Z doświadczenia wiemy, że znaczna część dzisiejszych komputerów firmowych to sprzęt pochodzący z “epoki” Core 2 Duo i Athlonów 64 X2. To aż tak źle? Otóż… nie. Śmiemy twierdzić, że nawet średniej klasy dwurdzeniowy procesor (E5300, Athlon 64 X2 4400) sprzed kilku dobrych lat, to wszystko czego trzeba w biurze, przy masowym wysyłaniu i odbieraniu e-maili, póki do gry nie wchodzi projektowanie w CAD czy innych profesjonalnych programach obciążających CPU. Przez te kilka minionych lat, zwiększyło się jednak znacznie zapotrzebowanie na pamięć RAM wszelkich możliwych aplikacji i przeglądarek, czego dowodem jest ten zrzut ekranu: http://i.imgur.com/Ci7Yspf.jpg
5 otwartych w przeglądarce kart, oraz jeden otwarty plik tekstowy “zżarły” 1,8 GB RAM, zaś sam procesor – co oczywiste – jest praktycznie w stanie spoczynku.
Wiele komputerów z jakimi mamy do czynienia dysponuje pamięcią oscylująca właśnie w granicach 1,5 – 2GB. Co się dzieje, gdy owej pamięci zabraknie? Oczywiście, komputer dalej działa i świat się nie wali. Dane jednak, które normalnie zapisywane i odczytywane byłyby na szybkiej pamięć RAM, przenoszone są na dysk twardy – na którym zapis i odczyt jest o rzędy wielkości wolniejszy: maksymalny transfer(wiekowych już) pamięci DDR2 800mhz to ok. 6400MB/s. Prędkość typowego dysku talerzowego to 80-100MB/s. Zatem odczyt z niego jest nieporównywalnie wolniejszy – i wyraźnie odczuwalny podczas codziennej pracy.
Możemy śmiało stwierdzić, że dziś 3GB pamięci RAM to absolutne minimum dla komputera, który ma pretendować do miana “płynnie działającego” i nie będącego – na dłuższą metę – przedmiotem nienawiści jego użytkownika.
Zaznaczmy, że koszt zwiększenia ilości RAM w stacji komputerowej to wręcz śmieszne grosze, w porównaniu do odczuwalnego skoku wydajności.

{loadposition fb-like-it}

Po trzecie: optymalne elementy stacji

Co robi gamingowa karta graficzna w komputerze przeznaczonym do pracy z bazami danych w Excellu? Marnuje się. A po jakimś czasie zwielokrotnia ryzyko awarii sprzętu. Karty graficzne przeznaczone do gier raczej nie są produkowane z myślą o długowieczności. Prawda jest taka, iż rynek gier 3D jest bezlitosny i wymaga coraz bardziej wydajnego sprzętu. Co innego jest w przypadku sprzętu, który po prostu ma działać: wyświetlać obraz na kilku monitorach, bezawaryjnie i cicho. Z tym zadaniem poradzą sobie bezszelestne karty z najniższej półki cenowej: Gefore GT610 czy Radeon HD5450. Konstrukcje te praktycznie nie obciążają zasilacza, i – w przeciwieństwie do prądożernych kart dla graczy – bardzo ciężko doprowadzić je do takiego stanu, by stanowiły pewne niebezpieczeństwo dla całej stacji roboczej.
Inną sprawą są przypadki “popłynięcia” w stronę niepotrzebnych inwestycji: po co w szkolnym komputerze sekretarki najwyższy obecnie model Intel Core i5 z odblokowanym mnożnikiem przeznaczonym do podkręcania? Spowolnienie sprzętowe w tym przypadku z pewnością nie nastąpi, ale – tego jesteśmy pewni – większa ilość włożonej w taki sprzęt kwoty nigdy nie zostanie wykorzystana nawet w 50%. Zamiast w wydajność GPU i CPU – w komputerach firmowych znacznie rozsądniej zainwestować jest w dyski SSD. Jesteśmy pewni, że dając swemu pracownikowi “prezent” w postaci uruchamiania się systemu w niecałe 10 sekund, i odpalania programów w 0,5 sekundy po kliknięciu myszą – zyskasz sobie uznanie i wdzięczność… A nawet jeśli nie – wymówki typu “komp mi muli” będą przeszłością.

Po czwarte: autostart w Windows

To bardzo prosty i ważny krok w optymalizacji wydajności systemu.
Klikając w pasek “start” ( w przypadku Windowsa 7 oraz XP i Vista), wpisz w pole wyszukiwania “msconfig”. Wyskoczy okno, w którym interesuje nas zakładka “uruchamianie”. Kliknij tam. Właśnie masz przed sobą listę programów uruchamianych wraz ze startem systemu Windows. Tych, których wydawcą jest firma Microsoft, dla pewności lepiej nie ruszaj. Wszystkie inne, których nazwy nic Ci nie mówią, lub mówią – i wiesz, że ich start wraz z systemem jest zbędny – z czystym sumieniem “odhacz”. Windows poprosi o ponowne uruchomienie – co też warto zrobić. Jeśli start był dużo szybszy, naucz się wykonywać tą prostą operację przynajmniej raz w miesiącu. Do autostartu bardzo często “wskakują” same z siebie zbędne programy. “Zabałaganiony” autostart przeciąga start systemu nawet o kilka minut. Załóżmy, że pojedynczy komputer w firmie wymaga dziennie – z różnych przyczyn – dwóch restartów systemu. To tylko mała podpowiedź – Ty możesz owe “kilka minut” odpowiednio pomnożyć, znając stan stacji roboczych w swojej firmie… W skali roku może z tego wyjść całkiem “nieprzyjemna” liczba straconych godzin, nieprawdaż?

Po piąte: działaj prewencyjnie

Wspomniany na początku artykułu manager dopuścił się podstawowego, dramatycznego błędu – wychodząc z założenia, że “póki działa, póty jest dobrze”. Otóż absolutnie nie. Myślenie takie jest bardzo krótkowzroczne i w konsekwencji – w skrajnych przypadkach – może doprowadzić do wstrzymania na czas usunięcia awarii pracy całego działu, lub firmy w ogóle – nie mówiąc o możliwości bezpowrotnej utraty ważnych danych (awarie dysków twardych).

W opozycji do wspomnianego managera, możemy podać przykład innego naszego klienta. Dyrektor niewielkiej firmy telekomunikacyjnej zgłosił się do nas, gdy tylko jego firmowy serwer NAS zaczął zdradzać najmniejsze objawy niepoprawnego działania. Ostatecznie okazało się, że NAS wymagał natychmiastowej wymiany, a zgromadzone na nim 4TB danych były zagrożone.

Trzeba pamiętać, że utrata już o wiele mniejszych ilości danych może się okazać katastrofalna w skutkach. Nie każdy użytkownik komputera ma świadomość konieczności wykonywania okresowych kopii zapasowych – szczególnie w przypadku pracy nad większymi, rozciągniętymi w czasie projektami. Każda szanująca się firma powinna posiadać możliwość wykonywania takich właśnie kopii: czy to na dyskach przenośnych, firmowych serwerze, czy w końcu w chmurze.

Nie do końca zdajemy sobie sprawę, czemu wciąż do szerszej świadomości nie dociera proste stare przysłowie o tym, że lepiej zapobiegać, niż leczyć – bardzo aktualna w dobie powszechnej komputeryzacji, opartej o – wciąż jednak – dość awaryjne i delikatne podzespoły w naszym sprzęcie.

Autor:

Wyszukiwanie
Darmowy poradnik w formie e-booka

Pobierz całkowicie za darmo poradnik "jak dbać o komputer?", który pozwoli Ci cieszyć się stabilnym, szybkim komputerem przez wiele lat!

Warto zobaczyć
Technologia użytkowa stała się nudna. I stanęła w miejscu. Technologia stała się nudna
Pamiętam jak dwie dekady temu świat technologii co rusz płodził coś rewolucyjnego, co robiło wrażenie, co było obiektem westchnień i silnego pożądania. Wówczas sprzęt elektroniczny produk…
5 rzeczy do zrobienia przy oddawaniu komputera do serwisu
Tekst o tym, jak opowiedzieć informatykowi o swoim problemie, musiał kiedyś powstać. Zabierałem się do niego kilkakroć, ale zawsze łapałem się na tym, że mogę być odebrany jako zarozumia…
Dlaczego Windows 10 jest tak nielubianym systemem?
Blogi i strony zajmujące się tematyką technologii i świata komputerowego, poruszyły już każdy możliwy aspekt Windowsa 10, patrząc od strony technicznej. Chciałbym jednak przyjrzeć się jego…
ITvip
ITvip
ITvip
ITvip
ITvip
ITvip
ITvip
ITvip
ITvip
ITvip
ITvip
ITvip
ITvip
ITvip