czwartek, 21 lutego 2013

Wordle

Wordle jest gadżetem do tworzenia "chmury słów" z tekstu, który dostarczymy. Chmura pokaże powiększone słowa, które pojawią się częściej w tekście źródłowym. Możesz zmieniać swoją chmurę stosując różne czcionki, układy i schematy kolorów. Obrazy tworzone z Wordle można wydrukować lub zapisać je w galerii i podzielić się z przyjaciółmi.

A to już przykłady przekształconego tekstu:










Jak widzimy aplikacja Wordle daje bardzo ciekawy efekt. Można tworzyć różnorodne słowa w różnych językach. 

Znalazłam tylko jeden minus aplikacji mianowicie to, że mimo, iż mamy do dyspozycji wybór języka polskiego to nasza chmura może nie wyświetlać wszystkich polskich znaków oraz znaków interpunkcyjnych. Mianowicie tasz tekst może być nieczytelny.

Web 2.0

Web 2.0 to przede wszystkim filozofia projektowania i budowania rozwiązań internetowych. Ta filozofia, nastawiona jest na budowanie takich aplikacji które umożliwiają korzystanie z tak zwanej kolektywnej inteligencji (O’Reilly). Przy czym istotne tutaj jest właściwe rozumienie i nazywanie procesów jakie są celami koncepcyjnymi web 2.0 – „kolektywna inteligencja” to nie to samo co „mądrość tłumu”. Kolektywny to oparty na zbiorowej pracy, wspólnym działaniu. Pojęcie „mądrość tłumu” wiąże się raczej ze wspólnym lub uśrednionym systemem decyzji lub preferencji. Celem projektantów opracowujących aplikacje bazujące na koncepcji web 2.0 jest stworzenie takiej architektury logicznej aplikacji (dobór narzędzi, technologii, etc.) aby wyzwolić ową kolektywną inteligencję. Oczywiście może ona zostać wykorzystana w różnych celach – np. to stworzenia aplikacji czy innych rozwiązań z zakresu social media. Co wydaje się istotne na tym etapie, to fakt, że o „podejściu web 2.0” możemy mówić wtedy, kiedy twórcy aplikacji świadomie bazowali na tej koncepcji tworząc swoje aplikacje. Wiele ze znanych i sprawdzonych rozwiązań internetowych, które (przynajmniej w części) wpisują się w definicję „web 2.0” stworzono przed ukształtowaniem się tego podejścia (np. fora internetowe).

To co istotne z punktu widzenia definicji web 2.0 to nie samo podejście intencjonalne (sprawienie aby zaszła kolektywna inteligencja) ale również czynniki bezpośrednio warunkujące to, czy owa kolektywna inteligencja ma szansę zajść (albo bezpośrednio zwiększające te szanse). Do tych składowych koncepcji web 2.0 zalicza przede wszystkim postrzeganie internetu jako platformy łączącej nie strony internetowe czy aplikacje (np. za pośrednictwem linków, rss, widgetów itp.) ale ludzi. Zatem jedną z podstaw podejścia web 2.0 jest maksymalizacja ilości osób, które rozwiązanie oparte o web 2.0 powinno jednoczyć czy też łączyć. Bowiem wzrost ilości osób współpracujących kolektywnie online sprawia, że owa uzyskana „kolektywna inteligencja” jest wyższej jakości . Zatem jednym z celów rozwiązań bazujących na koncepcji web 2.0 jest zarzucenie wcześniejszej koncepcji web 1.0 bazującej na założeniu budowania oddzielonych od siebie stron www skupiających ludzi w ramach pojedynczych wzajemnie niepołączonych bytów sieciowych (tzw. „walled gardens”). W praktyce oznacza to nastawienie aplikacji web 2.0 na tworzenie otwartych platform i tworzenie oraz wspieranie otwartych standardów.

Web 2.0
  • Wykorzystanie kolektywnej inteligencji 
  • Zmiana relacji pomiędzy właścicielami serwisów a użytkownikami 
  • Wykorzystanie kanałów RSS i atom 
  • Wykorzystanie mechanizmu wiki, blogów i folksonomi 
  • Wykorzystanie otwartych licencji, wolnego oprogramowania i otwartej treści.

Web 3.0 jest bliżej niż myślisz


Web 3.0 to termin, który stworzony by opisać dalszą ewolucję Internetu, to koncepcja przetworzenia zawartości stron do wzorca czytanego przez różne aplikacje, systemy wykorzystujące sztuczna inteligencje,

Strony Web 3.0 będą też zdolne do rozpoznania zamiarów internauty na podstawie kontekstu przekazu danych.

Web 3.0 kojarzy się z zasobami tak opisanymi metadanymi, by przeglądarki nie maiły wątpliwości jakie zasoby nam podpowiedzieć, by rozumiały o co nam chodzi i zamiast 5 milionów stron wskazywały nam informacje i wiedzę pasującą do naszych potrzeb. To także implementacja sztucznej inteligencji do wnętrza sieci.

Jednym z podstawowych założeń Web 3.0 jest sieć semantyczna, czyli oparta na znaczeniach, na kontekścieSieć semantyczna to idea Tima Bernersa-Lee (odpowiedzialnego także za pierwszą przeglądarkę www czy standardy stron internetowych). Opisana została przez niego oraz jego współpracowników już w 2001 roku w Scientific American.
Jak twierdzą eksperci do prawdziwego rozkwitu takiej sieci brakuje nam zapewne co najmniej kilku lat (chociaż sądząc po obecnym tempie rozwoju Sieci, równie dobrze może stać się to dość szybko) - głównie z powodu zbyt słabo rozwiniętych narzędzi oraz braku odpowiedniej mocy obliczeniowej. Są już jednak pewne przesłanki wskazujące, że Web 3.0 nie jest już jedynie odległą mrzonką.

A jak to ma działać? Obecnie istniejące roboty wyszukujące, te, z których korzystamy codziennie, działają na dosyć prostej zasadzie bazowej - sprawdzają jak często dane słowo pojawia się na danej stronie oraz ile odnośników do witryny tej prowadzi. Takim robotom brakuje jednak sprytu.

Web 3.0 - co nas czeka?

Starając się utrzymać treść na poziomie raczej popularnonaukowym, niż naukowym definicja Web 3.0 będzie dość uproszczona. Kolejne "wydanie" Sieci w dojrzałej wersji zakłada istnienie inteligentnych robotów, które będą w stanie odnaleźć interesujące nas informacje na podstawie kontekstu (najtańsze meble, najkrótszy utwór danego wykonawcy) i częściowo przejmą niektóre funkcje komunikacji w Sieci (ustalenie wolnych terminów spotkania dwóch osób, rezerwacja stolika). Internet będzie bardziej "dopasowany" do użytkowników; będzie odgadywał ich potrzeby bez konieczności dawania wyszukiwarce precyzyjnych wskazówek.
Już teraz eksperci wskazują na fakt, że ilość danych znajdujących się w Internecie staje się zbyt duża na możliwości "tradycyjnych wyszukiwarek". Trzeba wypracować nowe sposoby, w jakie wiedza może być systematyzowana i odnajdywana. Web 3.0 w znacznej mierze opiera się na rozwoju sztucznej inteligencji i nie sposób zaprzeczyć, że ten, komu pierwszemu uda się zaimplementować podstawowe założenia Web 3.0 zdetronizuje obecnych władców Internetu.

wtorek, 19 lutego 2013

Cyberterroryzm

Cyberterroryzm - neologizm opisujący dokonywanie aktów terroru przy pomocy zdobyczy technologii informacyjnej. Ma na celu wyrządzenie szkody z pobudek politycznych lub ideologicznych, zwłaszcza w odniesieniu do infrastruktury o istotnym znaczeniu dla gospodarki lub obronności atakowanego kraju. Polega na celowym zakłóceniu interaktywnego, zorganizowanego obiegu informacji w cyberprzestrzeni.

Zjawisko cyberterroryzmu - jako jednej z form terroryzmu – znane jest od lat 80-tych XX w. Zainteresowanie zamachowców stosowaniem ataków cybernetycznych wzrosło po zamachach na World Trade Center w Nowym Jorku. Od tego czasu państwa w obronie przed atakami cybernetycznymi zaczęły stosować bardziej zaawansowane systemy zabezpieczeń. Najczęstszymi celami ataków cyberterrorystów są rządowe strony internetowe, infrastruktura bankowa oraz infrastruktura krytyczna. W naszym regionie do najbardziej spektakularnych ataków cybernetycznych doszło w maju 2007 r. na Estonię, na przełomie czerwca i lipca 2008 r. na Litwę oraz w sierpniu 2008 r. na Gruzję.

MOŻLIWE FORMY ATAKÓW CYBERNETYCZNYCH
Potencjalny atak terrorystyczny w cyberprzestrzeni może obejmować oprogramowanie przeciwnika (software) lub systemy informacyjne i sprzęt komputerowy (hardware). Ze względu na różnorodność metod działania oraz różnorodność kryteriów opisu tego zjawiska, nie ma jednoznacznej klasyfikacji. W artykule opierano się na książce A. Bógdał-Brzezińskiej i M. Gawryckiego pt. Cyberterroryzm  i problemy bezpieczeństwa informacyjnego we współczesnym świecie. Obejmują one wybrane rodzaje stosowanych terminów i metody ich klasyfikacji, które odnoszą się do poziomów ataków w cyberprzestrzeni. Oczywiście nie wyczerpują w pełni przedstawianego problemu. 

Pierwszą zaprezentowaną metodą klasyfikacji jest lista siedmiu kategorii działań w cyberprzestrzeni opracowana przez W. Cheswicka i S. Bellovina:
  1. Stealing passwords – uzyskanie haseł dostępu do sieci.
  2. Sodal engineering – wykorzystanie niekompetencji osób, które mają dostęp do systemu.
  3. Bugs and backdoors – korzystanie z systemu bez specjalnych zezwoleń lub używanie oprogramowania z nielegalnych źródeł.
  4. Authentication failures – zniszczenie lub uszkodzenie procedur mechanizmu autoryzacji.
  5. Protocol failures – wykorzystanie luk w zbiorze reguł sterujących wymianą informacji pomiędzy dwoma lub wieloma niezależnymi urządzeniami lub procesami.
  6. Information leakage – uzyskanie informacje dostępnych tylko administratorowi, niezbędnych do poprawnego funkcjonowania sieci.
  7. Denial of Service – uniemożliwienie korzystania z systemu
POTENCJALNE CELE I OBIEKTY ATAKÓW
Panuje powszechna opinia, że coraz więcej społeczeństw w coraz większym stopniu uzależnionych jest od informatyki. Komputery kontrolują lub gromadzą informacje w takich dziedzinach życia, jak: dostarczanie energii, komunikacja, transport lotniczy, służby finansowe, gromadzenie danych medycznych, danych 
o przestępstwach kryminalnych itp. Istnieje przeświadczenie poparte licznymi dowodami, że współczesny przestępca może ukraść znacznie większe sumy pieniędzy za pomocą klawiatury komputerowej niż za pomocą broni. Tym samym stosując podobna analogię, współczesny terrorysta może dokonać znacznie więcej zniszczeń za pomocą komputera niż bomb. Pamiętać należy jednak, że znacznie łatwiej jest użyć bomb, niż włamać się do systemów komputerowych.  Przy rozpatrywaniu zagadnień cyberterroryzmu należy rozróżnić, jakie działanie jest terroryzmem, a jakie nim nie jest. Rozpatrując zagadnienia związane z nielegalną aktywnością na polu informatycznym, konieczne jest rozróżnienie tak zwanych  h a c k t y w i s t ó w .  Są oni również zmotywowani politycznie, ale nie mogą być utożsamiani z terrorystami. Ich zasadniczym celem jest protestowanie, manifestowanie lub podejmowanie prób obalenia panującego porządku. Nie zamierzają zadawać śmierci, okaleczać, powodować zniszczeń czy wreszcie szerzyć strachu.
Ich działania udowadniają jednak, że cyberterroryzm jest możliwy. Linia rozgraniczenia między cyberterroryzmem a hacktywizmem jest cienka. Musi nam towarzyszyć świadomość, że jeśli terroryści zwerbują lub wynajmą hacktywistę dla swoich celów bądź hacktywiści zdecydują się rozszerzyć zakres działań poprzez zaatakowanie newralgicznych stref działalności państwa – wówczas staną się cyberterrorystami. 
Jak już wspomniano, wyróżnić możemy dwa zasadnicze aspekty cyberterroryzmu:
− kiedy celem jest technologia informatyczna
− kiedy technologia informatyczna jest jedynie narzędziem

W pierwszym przypadku celem ataków terrorystycznych są systemy informatyczne, atakowane z zamiarem przeprowadzenia sabotażu zarówno elektronicznego, jak i fizycznego. Działania te mogą spowodować zniszczenie, uszkodzenie systemu informatycznego lub dowolnej struktury informatycznej. Efekt ataku uzależniony jest od wykorzystywanej technologii informatycznej oraz charakteru wybranego celu. 

Drugi przypadek odnosi się do sytuacji, w której terroryści mogą wykorzystywać narzędzia informatyczne w celu manipulowania, penetracji lub kradzieży danych bądź wymuszenia takiego działania systemu, który jest zgodny z intencją terrorystów. 

poniedziałek, 18 lutego 2013

Co ja pacze?


Koty zawładneły internetem. Można spotkać je wszędzie w sieci. Te niewinne małe stworzenia stały się sławne w internecie i każdy się zemną zgodzi . 

Tutaj mamy przykład jak kot korzysta z komputera






Zobaczymy jakie kolejne zwierze opanuje internet. Przecież internet jest dla wszytskich ogólnoświatową siecią łączności.

http://kotburger.pl/
http://icanhas.cheezburger.com/tag/Cats
http://zpopk.blox.pl/2012/05/Internet-is-made-of-cats-czyli-dlaczego-pierwsza.html

Nauko, idź precz!

Co się robi, gdy trzeba się uczyć do egzaminów? WSZYSTKO! No, może poza nauką :D Każdy chyba choć raz widział jakiegoś demota - są już praktycznie wszędzie, może poza radiem :P Kwejk, demotywatory, mistrzowie to jedne z wielu portali na których spędza się godziny teoretycznie bez celu. Teoretycznie, bo w praktyce sporo materiałów na kwejku i mistrzach rozbawia do łez :)

Demotywatory – demotywujący obrazek, połączenie wymownego obrazka bądź zdjęcia z komentującym jego zawartość podpisem. Demotywator jest najczęściej ironiczny (ma wyśmiać rzeczywistość) lub cyniczny. Strona rozrywkowa, prezentująca obszerny zbiór demotywatorów, czyli obrazków z demotywującymi lub motywującymi podpisami. Użytkownicy mogą zgłaszać, oceniać i komentować obrazki.

Demotywatory.pl mają 25. miejsce w polskim, a 1807. miejsce w globalnym rankingu Alexa. W marcu 2011 oraz 2012 roku były najpopularniejszą polską witryną z treściami humorystycznymi


Działanie serwisu
Wszystkie nowe demotywatory utworzone przez zarejestrowanych użytkowników serwisu trafiają do tzw. poczekalni. Tam inni użytkownicy dokonują wstępnej selekcji, oceniając prace. Początkowo te demotywatory, które zostały najlepiej oceniane, trafiały automatycznie na główną. Obecnie moderatorzy sami wybierają obrazki z poczekalni, czasem najlepiej ocenione, a czasami te, które im się spodobają. Jeśli praca została nisko oceniona, jest przenoszona do archiwum, które grupuje też inne archiwalne demotywatory.

Przykłady demotywatorów:











































Kwejk.pl jest można by powiedzieć, że bliźniaczą stroną co Demotywatory.pl z jednym wyjątkiem - są tam same obrazki/filmy, bez czarnego tła i podpisu. Zasada działania jest identyczna jak na demotach - wrzucasz materiał, trafia do poczekalni, przechodzi przez selekcję i trafia na główną.
































Mistrzowie.org to portal, na którym umieszczane są najlepsze teksty wygrzebane z czeluści internetu:P 


niedziela, 17 lutego 2013

Zoo Tycoon

Moją ulubioną grą jest Zoo Tycoon. Buduje się zoo, opiekuje się zwierzętami i kieruje się ludźmi. Gra dla osób które lubią dzikie zwierzęta i zawsze chciały mieć swoje własne zoo. Teraz każdy ma okazje by spróbować swoich sił i wykazać się kreatywnością i zarządzania zwierzętami.
Zoo Tycoon to pierwsza odsłona gry gdzie samemu się projektuje się zoo. Gracz wciela się w rolę właściciela ogrodu zoologicznego. Zatrudnia pracowników, dba o finanse, inwestuje i utrzymuje budynki. Celem gry jest stworzenie najlepszego i najbardziej dochodowego zoo. Projektuje się alejki, punkty widokowe, kupuje zwierzęta, którym zapewnić trzeba odpowiednie warunki życia i opiekę. Do dyspozycji jest ponad 175 różnych rodzajów materiałów budowlanych, legowisk i obiektów, ponad 40 różnego rodzaju gatunków zwierząt. Gra posiada łatwy w użyciu interfejs użytkownika.


Zoo Tycoon 2 – sequel symulacji ekonomicznej Zoo Tycoon, stworzona przez Blue Fang Games i wydana przez Microsoft Game Studios 12 listopada 2004 roku.

Tak jak w poprzedniej części zadaniem gracza jest poprowadzenie zoo, zatrudnia się personel (treserów, sprzątaczy, ochronę), trzeba dbać o rozbudowę naszego zoo (budować klatki dla zwierząt, obiekty rozrywkowe czy zwiększające atrakcyjność zoo). Istotną rolę odgrywają finanse, wysokość biletów czy pensji pracowników.

Do gry stworzono cztery dodatki


  • Zoo Tycoon 2: Na ratunek zwierzakom 
  • Zoo Tycoon 2: Podwodny świat 
  • Zoo Tycoon 2: Afrykańskie zwierzak 
  • Zoo Tycoon 2: Wymarłe gatunki

Zdjęcia z gry Zoo Tycoon 2: Podwodny świat

Najbardziej spodobał mi się i przepadł mi do gustu dodatek podwodny świat. W zoo można mieć foki, delfiny i te zwierzeta chciałabym mieć w domu. 







Radia internetowe - Eska vs Open.fm

Jedną z pierwszych czynności które wykonuje po włączeniu komputera, jest puszczenie muzyki. Nie ważne, czy z własnej kolekcji z dysku, z YouTube czy też z jakiegoś radia internetowego - coś musi lecieć w tle, abym mogła spokojnie pracować. Dzisiaj postaram się przedstawić kilka informacji o dwóch najczęściej przeze mnie słuchanych radiach internetowych :)
Radio Eska – największa polska sieć rozgłośni radiowych, wchodząca obok stacji Eska Rock, VOX FM i Radio WAWA w skład Grupy Radiowej Time zorganizowanej wokół Zjednoczonych Przedsiębiorstw Rozrywkowych. Siedziba Radia ESKA S.A. mieści się w Warszawie.

Są 43 stacje radiowe a to niektóre z nich:
  • Radio ESKA
  • ESKA Love
  • ESKA Gorąca 20
  • ESKA Party
  • ESKA Hity - Nie Tylko Na Czasie
  • ESKA Dance
  • ESKA Club
  • Eska ROCK
  • Eska ROCK Ballads
  • Eska ROCK Reggae
  • WAWA Party
Jest 9 audycji, oto one:
  • Wykończ Mema
  • Wrzuć na luz z Pawelcem Kamą i Albertem!
  • ESKA Live RMX
  • The best of Szymorning
  • imprESKA
  • Gorąca 20
  • 10 hitów jeden po drugi
  • Global Lista
  • Szymorning
Open.fm (dawniej pod nazwą Gadu Radio) – najpopularniejsza w polskiej sieci internetowa platforma radiowa, dostępna na stronie internetowej i w komunikatorze internetowym – Gadu-Gadu. Platforma radiowa rozpoczęła nadawanie 8 marca 2006 roku. Właścicielem platformy jest spółka GG Network S.A.

W jego skład wchodzi 98 kanałów, miedzy innymi:
  • IMPREZA
  • IMPREZA PL
  • VIVA
  • MTV
  • MTV ROCKS
  • TOP 2012 HITS
  • TOP 20 IMPREZA
  • TOP 20 DISCO POLO
  • TOP 20 POP
  • TOP 20 PL
  • TOP 20 HIP-HOP
  • TOP 20 ROCK 
Szczególnie polecam Radio Eska. Posiada wiele kanałów tematycznych oraz kilka ciekawych audycji. Open.fm z racji tego, że jest wbudowane w komunikator GG jest równie ciekawe – nie ma potrzeby otwierania przeglądarki w celu posłuchania muzyki.

Wujek Google prawdę Ci powie...

Google to według wielu osób tylko wyszukiwarka. Nie zdają sobie jednak sprawy z tego, jaką rolę odgrywa   to przedsiębiorstwo w życiu Internetu. 
Wszystko zaczęło się w 1995 roku, kiedy to Larry Page i Sergey Brin poznali się na na Uniwersytecie Stanforda. W 1996 r. mieli już gotową wyszukiwarkę, początkowo nazywaną BackRub, która określała ważność poszczególnych stron na podstawie linków. Nazwa wyszukiwarki internetowej Google pochodzi od liczby googol. Szukając nazwy dla nowego przedsięwzięcia Larry Page poprosił kolegę z pokoju Seana Andersona o wypisywanie typów na tablicy. Przy którejś z sesji padła nazwa Googolplex. Sean natychmiast sprawdził domenę w skróconej formie w internecie i zarejestrował. Popełnił jednak błąd wpisując znane wszystkim google.com, a nie googol.com, która była już w tym czasie zarejestrowana. Wedle danych z lipca 2008 roku, Google indeksuje ponad bilion stron WWW. Większość przeszukiwanych informacji gromadzona jest w uproszczonym formacie na serwerach Google.
Misją Google jest uporządkowanie światowych zasobów informacji, tak by stały się powszechnie dostępne i użyteczne.
Ale Google to nie tylko wyszukiwarka. Firma oferuje wiele innych usług:
  • Gmail – bezpłatny serwis webmail posługujący się technologią AJAX, stworzony i rozwijany przez firmę Google. W czerwcu 2012 roku miał 425 mln użytkowników na całym świecie. Uruchomiony został 1 kwietnia 2004 roku. Wielu uważało to za żarprimaaprilisowy, ponieważ pojemność konta wynosiła 1GB(jak na tamte czasy, to baaaardzo dużo). Gmail oferuje także czat tekstowy, głosowy oraz wideo. Wiadomości tworzą wątki - maile z tego samego adresu o jednakowym tytule są "sklejane" w jedną wiadomość, przez co łatwo można odszukać poprzednie wiadomości. Wszystkie wiadomości można oznaczyć gwiazdką, nadać jej priorytet bądź etykietę i dodać ją do odpowiedniego folderu.
  • YouTube – serwis internetowy, stworzony w lutym roku 2005 przez trzech pracowników PayPal, który umożliwia bezpłatne umieszczanie i oglądanie filmów. Niezarejestrowani użytkownicy mogą oglądać filmy, podczas gdy zarejestrowani mają możliwość umieszczenia nieograniczonej liczby filmów. Większość filmów dodawana jest przez zwykłych użytkowników, lecz część materiałów jest udostępniana przez organizacje takie jak VEVO lub Hulu.
  • GoogleMaps serwis firmy Google oferujący dostęp do zaawansowanej i łatwej w obsłudze technologii map i informacji o firmach lokalnych, w tym ich lokalizacji, danych kontaktowych oraz tras dojazdu do nich.
Dodatkowo, Google oferuje:

Żegnaj NK, witaj FB





Kiedyś najbardziej popularny portal społecznościowy. Każdy miał swoje konto lub konto grupowe. Łatwo znaleźć znajomych z lat szkolnych lub nawiązać nowe znajomości. Poświęcało się dużo czasu wolnego na czytanie komentarzy, dodawaniu zdjęć i rozmowy z znajomymi. Sama przyznam że całymi dnami siedziałam na portalu.

nk.pl (dawniej nasza-klasa.pl) – polski serwis społecznościowy, który został uruchomiony 11 listopada 2006. Jego pierwotnym celem było umożliwienie użytkownikom odnalezienia osób ze swoich szkolnych lat i odnowienie z nimi kontaktu. Aktualnie serwis nabrał charakteru wielopoziomowej platformy komunikacji dla polskich użytkowników internetu. Właścicielem 70% udziałów jest zarejestrowana na Cyprze spółka Excolimp (prowadzona przez wcześniejszych udziałowców przedsiębiorstwa Forticom, które było niegdyś właścicielem większości udziałów serwisu), pozostałe udziały należą do polskich założycieli serwisu.

Serwis nk.pl jest jedenastą pod względem popularności stroną internetową w Polsce według danych portalu Alexa (stan na 25 lipca 2011). W czerwcu 2010 roku na portalu istniało około 14 milionów aktywnych kont użytkowników, jednakże ocenia się, że 6% kont to konta fikcyjne

Na NK.pl występują 4 rodzaje kont:
  • Konto Rzeczywiste - dla osób zwykłych, 
  • Konto Fikcyjne - używane najczęściej do tworzenia fanklubów lub do niepodawania swoich danych osobowych; 
  • Konto Oficjalne - dla osób powszechnie znanych (aktor, piosenkarz, sportowiec etc.), 
  • Konto Sponsorowane - najczęściej fundacje mające sponsora
Spadek oglądalności i utrata pozycji rynkowej na rzecz konkurencji

Zmiany dokonane na portalu (m.in. polityka dotycząca ochrony danych osobowych, obarczanie użytkowników dodatkowymi kosztami za dawniej darmowe funkcje, inwazyjne reklamy) spowodowały w efekcie spadek oglądalności; serwis został wyprzedzony przez Wikipedię i znalazł się poza pierwszą dziesiątką najczęściej odwiedzanych witryn. Ponadto, dotąd mniej popularny w Polsce Facebook, wyprzedził najpopularniejszy dotychczas portal społecznościowy w Polsce, plasując się w ścisłej czołówce rankingu najczęściej odwiedzanych stron internetowych w Polsce.




Koniec ery nk i fotki - nadchodzi era facebooka, jednego z najbardziej znanego portalu. Młodzi ludzie spędzają na nim całe dnie i śledzą posty dodane przez swoich znajomych.

Facebook serwis społecznościowy, w ramach którego zarejestrowani użytkownicy mogą tworzyć sieci i grupy, dzielić się wiadomościami i zdjęciami oraz korzystać z aplikacji, będących własnością Facebook, Inc. z siedzibą w Menlo Park. W październiku 2012 liczba użytkowników na całym świecie wynosiła ponad 1 miliard, a co miesiąc wgrywany jest ponad 1 mld zdjęć oraz 10 mln filmów, których obecnie jest 265 miliardów. Średni wiek użytkownika serwisu to 22 lat.

Projekt został uruchomiony 4 lutego 2004 na Uniwersytecie Harvard i był początkowo przeznaczony przede wszystkim dla uczniów szkół średnich i studentów szkół wyższych (college’ów, uniwersytetów). Jego głównym autorem jest Mark Zuckerberg . Serwis zatrudnia ok. 1000 pracowników (stan na sierpień 2009). Jego przychody przekraczają 150 mln USD (szacunkowo). We wrześniu 2009 założyciel Facebooka poinformował na swoim blogu, że Facebook po raz pierwszy przestał przynosić straty i zaczął pokrywać swoje koszty operacyjne oraz inwestycje w nowe serwery.

W marcu 2008 autor portalu, 23-letni Mark Zuckerberg, plasując się na 735. miejscu rankingu Forbesa zestawiającego najbogatszych ludzi świata, został najmłodszym miliarderem świata (1,5 mld USD).


W październiku 2010 na ekrany kin wszedł film The Social Network ukazujący historię portalu Facebook (pierwotnie TheFacebook) i jego założycieli. W zakończeniu filmu podano szacunkową wartość portalu i wynosiła ona 25 miliardów dolarów.
18 maja 2012 roku Facebook jako firma, pojawił się po raz pierwszy na amerykańskiej giełdzie NASDAQ, będąc najwyżej wycenianą w historii spółką giełdową w dniu debiutu. Szacunki dotyczące wartości serwisu, okazały się jednak być mocno przesadzone gdyż oczekiwania inwestorów były zbyt duże, wobec realnych możliwości serwisu.


Facebook w Polsce

Serwis pomimo że został przetłumaczony na język polski, to za jego funkcjonowanie w Polsce był odpowiedzialny oddział w Dublinie. Według początkowych informacji, polski oddział miałby zostać otwarty w którymś z następujących miast: Wrocławiu, Katowicach, Szczecinie lub Białymstoku. Ostatecznie na siedzibę polskiego biura wybrano Warszawę. Głównymi czynnikami które wpłynęły na decyzję o uruchomieniu nowego oddziału, była spora liczba polskich użytkowników oraz zerwanie umowy z agencją ARBO media, która to – na zlecenie Facebooka – miała zajmować się reklamą w Europie Wschodniej. Istniały plotki że Facebook poszukuje pracowników, jednak ofert pracy nie było nawet na oficjalnych stronach portalu. Biuro zarejestrowane jest w Warszawie na ulicy Dobrej 56/58, jednak znajduje się tam jedynie międzynarodowa kancelaria prawna, uprawniona do reprezentowania Facebooka.


Z miesiąca na miesiąc konta na FB ma coraz więcej osób. W końcu to jest najbardziej popularny portal na całym świecie.















Zestawienia danych portali odwiedzanych przez ludzi w ciągu miesiąca:



Prawa autorskie w Internecie

Już kończą się czasy bezkarnego łamania praw autorskich w Internecie. Znalazł się projekt ustawy, która grozi oszustom dosyć dotkliwymi karami. Mimo iż ten pomysł podoba się prawnikom i przedsiębiorcom, dominuje obawa, że szanse na skuteczną walkę z piratami są raczej niewielkie. We wszelkich sprawach dotyczących Internetu stosuje się przepisy prawa autorskiego, które opisuje Ustawa z dnia 4 lutego 1994 o prawie autorskim i prawach pokrewnych.

Przedmiotem prawa autorskiego jest każdy przejaw działalności twórczej o indywidualnym charakterze, ustalony w jakiejkolwiek postaci, niezależnie od wartości, przeznaczenia i sposobu wyrażenia" - stwierdza w artykule pierwszym ustawa z dnia 04 lutego 1994 r. o prawie autorskim i prawach pokrewnych (Dz.U. nr 24 poz. 83). W art. 1 ust. 2 ustawy, przedmiot prawa autorskiego doprecyzowano, zaznaczając, iż w szczególności przedmiotem prawa autorskiego są utwory:
  • wyrażone słowem, symbolami matematycznymi, znakami graficznymi (literackie, publicystyczne, naukowe, kartograficzne oraz programy komputerowe),
  •   plastyczne,
  •   fotograficzne,
  •   lutnicze,
  •   wzornictwa przemysłowego,
  •   architektoniczne, architektoniczno-urbanistyczne i urbanistyczne,
  •   muzyczne i słowno-muzyczne,
  •   sceniczne, sceniczno-muzyczne, choreograficzne i pantomimiczne,
  •   audiowizualne (w tym wizualne i audialne).
Pod ochroną prawa autorskiego pozostaje także, "opracowanie cudzego utworu, w szczególności tłumaczenie, przeróbka, adaptacja ". Ponadto, w myśl art. 3, "zbiory, antologie, wybory, bazy danych są przedmiotem prawa autorskiego, nawet jeśli zawierają nie chronione materiały, o ile przyjęty w nich dobór, układ lub zestawienie ma twórczy charakter, bez uszczerbku dla praw do wykorzystanych utworów".
Spod ustawowej ochrony wyraźnie wyłączono akty normatywne urzędowe dokumenty, materiały, znaki i symbole, opublikowane opisy patentowe i ochronne oraz "proste informacje prasowe".

Autorskie prawa osobiste to przede wszystkim prawo:
  • do autorstwa utworu,
  • do ochrony jego integralności,
  • decydowania o pierwszym upublicznieniu utworu,
  • nadzoru nad sposobem korzystania z utworu.

1. Zasady pobierania publikacji.
Bez zgody autora stron, właściciela praw autorskich i zarazem ich wydawcy w Internecie żadna część tej publikacji nie możne być przechowywana w systemach wyszukiwania lub przekazywana w żadnej formie i żadnymi środkami elektronicznymi, mechanicznymi, za pośrednictwem fotokopiarek czy w inny sposób, poza zakresem wynikającym z dozwolonego użytku chronionych utworów.
Zamieszczenie całego artykułu jest możliwe tylko za zgodą autora. Domyślnie takiej autor zgody nie udziela. Zgodę taką można w uzasadnionych przypadkach uzyskać kontaktując się z autorem. Bez zgody autora jest to zawsze naruszenie prawa autorskiego, nawet gdy nie wiąże się z uzyskiwaniem korzyści materialnych. Osiąganie korzyści może wpłynąć na wysokość i formę odszkodowania przyznawanego przez sąd, ale nie zmienia to samego faktu złamania praw autorskich. Już przy samym rozpowszechnianiu bez zezwolenia może ucierpieć wartość handlowa oryginału, jakakolwiek by ona wcześniej nie była...

2. Pobieranie ilustracji.
Elementy graficzne stworzone przez autora dla potrzeb serwisu i ilustracje, w tym zrzuty ekranu, również nie mogą być wykorzystywane bez zgody autora. Również domyślnie takiej autor zgody nie udziela.
Umieszczając na swojej stronie obrazki i downloady (pliki do ściągnięcia) narusza się prawo ale nie we wszystkich przypadkach. Jeśli umieszcza się na swojej stronie cudze obrazki: tapety, gify animowane i inne, które ktoś przygotował po to, aby wzbogacić swoją stronę narusza się prawa autorskie i łamie się prawo.
Jednak nie ma mowy o naruszaniu prawa, jeśli te obrazki pochodzą ze stron, rozpowszechniających darmowe grafiki na strony WWW, takie obrazki każdy może zamieszczać na swojej stronie.
Jeśli podoba się unikalna grafika na czyjejś stronie - zamiast po prostu ściągać ją i zastanawiać się, czy nie narusza się prawa – trzeba napisać mail-a do jej autora i zapytać, czy może udostępnić swoje grafiki.
Podobnie jest w przypadku innych plików - np. niewielkich programów, czy dodatkowych misji do gier. Jeśli są one opisane jako czyjaś własność albo po prostu zabiera się je z czyjejś strony, choć nie ma tam mowy o tym, że program jest darmowy – narusza się prawo autorskie. Jeśli natomiast plik można powielać i rozpowszechniać – wtedy wszystko jest w porządku.

3. Ochrona informacji prasowych.
Zgodnie z prawem autorskim ochronie nie podlegają proste informacje prasowe, rozumiane jako same informacje, bez komentarza i oceny ich autora. Autor rozumie to jako możliwość wykorzystywania informacji z zamieszczonych w serwisie tekstów, ale już nie kopiowania całości lub części artykułów.

4. Brak anonimowości i koniec bezkarności
W przypadku złamania prawa autorskiego nikt nie pozostaje anonimowy. Pozwala to na zmniejszenie poczucia bezkarności w przypadku plagiatów. Można zauważyć z jakiej przeglądarki korzysta użytkownik, w jakim systemie pracuje. Można też określić jego adres IP, identyfikujący komputer i przyporządkowaną mu domenę. Można nawet sprawdzić w jakiej rozdzielczości pracuje monitor. Na podstawie IP i domeny, można zlokalizować komputer, a dostawca Internetu ma obowiązek zarchiwizować (zalogować) każdą akcję w sieci (przeglądanie jakiejkolwiek strony, umieszczanie jakiejkolwiek strony w Internecie) i w razie nakazu, przedstawić te dane prokuraturze.

5. Dozwolonego użytek.
W prawie autorskim istnieje pojęcie dozwolonego użytku. Polega on na wykorzystaniu krótkiego fragmentu dzieła z podaniem jego autora i źródła - czyli zamieszczaniu cytatów. Wolno więc cytować framenty artykułów z serwisu, z podaniem źródła
...na sposób hipertekstowy, na przykład:
Jarosław Zieliński, Etykieta sieciowa, Winter.pl, 23 grudnia 1997.
(podawany jest więc kolejno autor, tytuł artykułu i odnośnik do niego, tytuł serwisu i odnośnik do niego, data ostatnich zmian w momencie tworzenia źródła - bo artykuł może się później zmieniać)

6. Działania prawne.                                            
Plagiaty w Polsce podlegają karze grzywny, ograniczenia wolności, albo pozbawienia wolności do lat 3 - są ścigane nie tylko z powództwa cywilnego.
Plagiat jest ścigany przez prokuratora z powództwa karnego - osoby które go popełniają, są w krótkim czasie wzywane do sądu i przesłuchiwane przez prokuratora, a sprawy toczą się szybko, a nie ciągną się latami.
Dotyczy to wszystkich osób zamieszanych w proceder.

7. Skutki i konsekwencje prawne plagiatów rozpatrywane na podstawie Praw Autorskich i Kodeksu Karnego.
  1. Notarialne zabezpieczenie dowodów - stron internetowych. Od tego momentu można już nawet i usunąć stronę, ale i tak pozostają dowody przestępstwa.
  2. Uzyskiwanie danych firmy z IP i domeny - po ok. 5 minutach poznanie imienia, nazwiska, formy prowadzenia działalności, telefonu, adresu zamieszkania.
  3. Przekazanie dowodów prawnikowi
  4. Otrzymanie nakazu zabezpieczenia logów przez właściciela serwera - jeżeli tego nie zrobi lub ostrzeże, będzie sądownie odpowiadał za współudział.
  5. Otrzymanie pisma z propozycją ugody
  6. Jeżeli ugoda nie zostanie przyjęta niezwłocznie rozpoczynane są działania prawne