Możliwości Przyszłości - Jak cyfryzacja wpływa na sferę społeczną i ekonomiczną
Możliwości Przyszłości - Jak cyfryzacja wpływa na sferę społeczną i ekonomiczną
Nikt nie zaprzeczyłby, że ewolucja komputerów i sieci przetwarzających dane doprowadzi a nawet już doprowadziła do istotnych zmian w naszym społeczeństwie - pod względem struktury społecznej, sztuki i nauki.
15 sty 2020
684
Other articles
Testowanie aplikacji za pomocą JUnit5 i JMock. Część 2
Jak przygotować się do certyfikacji IIBA. Wyzwania i hacki
Testowanie aplikacji za pomocą JUnit5 i Mockito. Część 2
Testowanie aplikacji za pomocą JUnit5 i Mockito. Część 1
Testowanie aplikacji za pomocą JUnit5 i EasyMock. Część 2
Testowanie aplikacji za pomocą JUnit5 i EasyMock. Część 1
Test Driven Development z użyciem JUnit 5. Część 6
Test Driven Development z użyciem JUnit 5. Część 5
Test Driven Development z użyciem JUnit 5. Część 4
Test Driven Development z uzyciem JUnit 5. Czesc 3
Nikt nie zaprzeczyłby, że ewolucja komputerów i sieci przetwarzających dane doprowadzi a nawet już doprowadziła do istotnych zmian w naszym społeczeństwie - pod względem struktury społecznej, sztuki i nauki. Takie zmiany nie mogą być zaplanowane z wyprzedzeniem, ale raczej są naturalną reakcją społeczeństwa na nowe możliwości informatyczne.
W społeczeństwie, podobnie jak w każdym innym niezwykle złożonym systemie, raczej trudno jest przewidzieć tego typu zachodzące zmiany. Można to zaobserwować w tematach omawianych w futurologii i science fiction około 50 lat temu, gdzie spodziewano się rozwoju energii jądrowej, lotów kosmicznych, kontroli pogody i skomplikowanych obliczeń, ale nie technologii informacyjnej, miniaturyzacji i globalnych powiązań.
Dlatego uzasadnione byłoby zwrócenie uwagi na niektóre osobliwości IT, które już się pojawiły, ale nie wywarły jeszcze bezpośredniego wpływu na nasze społeczeństwo. Z drugiej strony być może zaczynają już wpływać na nasze życie, ale w niewielkim i prawie niezauważalnym stopniu.
Byłoby niewłaściwym obwinianie mediów społecznościowych, dziennikarzy lub czegokolwiek innego. Oczywiście, że nie. Przeciwnie - jest to cecha charakterystyczna mózgu, wbudowana w jego "konstrukcję". Albo (w określeniach informatycznych) jest to "bug", który pojawia się w pewnych warunkach zewnętrznych. Zaradzić temu problemowi za bardzo teraz nie możemy - za to musimy nauczyć się z nim żyć i brać go pod uwagę podczas planowania naszej edukacji, pracy lub badań.
Świat nieustannie przechodzi zmiany wynikające z postępu technologicznego. Społeczeństwo staje się silniejsze, ale każda jednostka słabnie fizycznie. Nauka ewoluuje, ale każda jednostka staje się trochę bardziej "ułomna", polegając bardziej na wiedzy zewnętrznej (komputerze) niż na swoim mózgu.
Globalna łączność i zależność od komputerów przynosi również pewne pozytywne rzeczy. Na przykład sprawia, że sprzęt jest bardziej dostępny dla naukowców. Teraz nie ma potrzeby twojej fizycznej obecności w miejscu, w którym przeprowadzane są eksperymenty. Zespół może być rozmieszczony w różnych krajach i na różnych kontynentach. Co więcej, obecność człowieka w wielu eksperymentach naukowych (jeśli nie we wszystkich) stanie się całkowicie niepotrzebna. Eksperymenty można przeprowadzać w miejscach, do których ludzie jeszcze nie dotarli lub nie mogą fizycznie dotrzeć.
Jeśli komputery mogą kontrolować lub przeprowadzać eksperymenty, następnie mogą także tworzyć nową wiedzę za pomocą systemów eksperckich lub sztucznej inteligencji. Taka "nowa" wiedza będzie jednak logicznie niewytłumaczalna dla ludzi. Nie mamy jeszcze bardzo dobrego zrozumienia tego, jak działa ludzki mózg, ale większość naukowców zgadza się, że istnieje duża autonomiczna sekcja (podświadomość), która generuje nową wiedzę, oraz jeszcze jedna sekcja (umysł), która zawiera logiczne wyjaśnienia tej nowej wiedzy. Konstruuje i upraszcza ją do wykorzystania w przyszłości.
Większość współczesnych systemów sztucznej inteligencji próbuje naśladować pracę podświadomości, podczas gdy druga część - strukturyzowanie i upraszczanie ludzkiej percepcji - wciąż unika implementacji. Co więcej, nie jest do końca jasne, czy będzie w stanie działać jako system "dla ludzkiej percepcji", czy też będzie konstruować informacje, aby były "zrozumiałe" dla innych komputerów (nie dla ludzi).
Parafrazując Arthura Clarka, amerykańskiego pisarza science fiction i futurologa, możemy powiedzieć, że każda wystarczająco rozwinięta wiedza jest nie do odróżnienia od magii. Oczywiście w przypadku skomplikowanych dziedzin wiedzy jest to już jakaś prawda, ale w przypadku wiedzy generowanej komputerowo będzie ona nie do odróżnienia od magii dla całej ludzkości.
Na przykład obecnie nie możemy logicznie (tj. z regułami i równaniami) wyjaśnić prognoz pogody sporządzonych przez sieci neuronowe na podstawie bieżących i przeszłych danych. Ponadto, nawet w prostszym obszarze: w większości przypadków nie jesteśmy w stanie "wyjaśnić" rozwiązań maszyny oceniającej, która przewiduje ryzyko kredytowe na podstawie danych historycznych dotyczących klientów bankowych. Otrzymujemy wniosek, ale nie ma "racjonalnego wyjaśnienia".
Jeśli spojrzymy na obecne projekty IT i przeanalizujemy ich związek ze społeczeństwem, możemy zauważyć następujące trendy.
Coraz więcej komunikacji odbywa się kanałami cyfrowymi we wszystkich sferach. Od osobistej komunikacji i gier po medycynę, interakcje z władzami publicznymi i nauką. Operatorzy sieci komórkowych i kablowych stopniowo przekształcają się w dostawców dostępu do zunifikowanej pojedynczej sieci - zajmą albo nową niszę (np. Firmy budujące i obsługujące autostrady), albo znajdą nowe sposoby interakcji z innymi segmentami - detalicznym, logistycznym , przemysł rozrywkowy, instytucje publiczne itp.
Cyfryzacja komunikacji doprowadzi do pełnej identyfikacji wszystkich zaangażowanych agentów, zarówno organizacji, jak i ludzi. Anonimowość jako taka wkrótce zniknie prawie całkowicie, ponieważ interesują się nią zarówno firmy, jak i rządy.
Opracowano wszystkie mechanizmy identyfikacji (oba formalne, jak i pośrednie), a także mechanizmy analizy, mapowania i obsługi danych. Przepisy dotyczące ochrony danych osobowych, chociaż wykorzystywane są dane docelowe, są obecnie dalekie od zastosowania. Nadal nie jest jasne, czy rzeczywiście można wdrożyć użyteczny, spójny i odpowiedni mechanizm.
Gromadzenie wielkich ilości dużych danych doprowadzi do dalszej ewolucji i wdrożenia systemów analizy maszynowej (sieci neuronowej sztucznej inteligencji oraz jeszcze nieznanych systemów), które będą wykorzystywane do identyfikacji interakcji podmiotu, analizy wzorców zachowań, prognozowania, a czasem (nielegalnie lub w "szarej" strefie) generowania nowych danych, których nie można odróżnić od rzeczywistych (fałszywe filmy, sfałszowane wiadomości, imitacje głosu itp.).
W społeczeństwie, podobnie jak w każdym innym niezwykle złożonym systemie, raczej trudno jest przewidzieć tego typu zachodzące zmiany. Można to zaobserwować w tematach omawianych w futurologii i science fiction około 50 lat temu, gdzie spodziewano się rozwoju energii jądrowej, lotów kosmicznych, kontroli pogody i skomplikowanych obliczeń, ale nie technologii informacyjnej, miniaturyzacji i globalnych powiązań.
Dlatego uzasadnione byłoby zwrócenie uwagi na niektóre osobliwości IT, które już się pojawiły, ale nie wywarły jeszcze bezpośredniego wpływu na nasze społeczeństwo. Z drugiej strony być może zaczynają już wpływać na nasze życie, ale w niewielkim i prawie niezauważalnym stopniu.
Zakres uwagi
Pierwszym i najbardziej istotnym punktem jest znaczny spadek zakresu uwagi. Łatwość, z jaką możemy uzyskać dostęp do nowych informacji, szczególne cechy ludzkiego umysłu jako maszyny informacji zwrotnej i wzmocnienie przydatnych zachowań - sprawiły, że zaczęliśmy preferować małe fragmenty lub "strzępy" informacji. Coraz trudniej jest nam skupić się na dłuższej pracy lub nauce tudzież na dużej ilości powiązanych danych. Staje się to coraz bardziej widoczne z każdym nowym pokoleniem, stopniowo, ale i bezpowrotnie.Byłoby niewłaściwym obwinianie mediów społecznościowych, dziennikarzy lub czegokolwiek innego. Oczywiście, że nie. Przeciwnie - jest to cecha charakterystyczna mózgu, wbudowana w jego "konstrukcję". Albo (w określeniach informatycznych) jest to "bug", który pojawia się w pewnych warunkach zewnętrznych. Zaradzić temu problemowi za bardzo teraz nie możemy - za to musimy nauczyć się z nim żyć i brać go pod uwagę podczas planowania naszej edukacji, pracy lub badań.
Zwiększona specjalizacja
Obok tego jest rosnąca specjalizacja i brak wiedzy encyklopedycznej. Już polegamy na zewnętrznym wyszukiwaniu i klasyfikacji informacji; badania naukowe są prawie w 100% oparte na komputerach i Internecie.Świat nieustannie przechodzi zmiany wynikające z postępu technologicznego. Społeczeństwo staje się silniejsze, ale każda jednostka słabnie fizycznie. Nauka ewoluuje, ale każda jednostka staje się trochę bardziej "ułomna", polegając bardziej na wiedzy zewnętrznej (komputerze) niż na swoim mózgu.
Globalna łączność i zależność od komputerów przynosi również pewne pozytywne rzeczy. Na przykład sprawia, że sprzęt jest bardziej dostępny dla naukowców. Teraz nie ma potrzeby twojej fizycznej obecności w miejscu, w którym przeprowadzane są eksperymenty. Zespół może być rozmieszczony w różnych krajach i na różnych kontynentach. Co więcej, obecność człowieka w wielu eksperymentach naukowych (jeśli nie we wszystkich) stanie się całkowicie niepotrzebna. Eksperymenty można przeprowadzać w miejscach, do których ludzie jeszcze nie dotarli lub nie mogą fizycznie dotrzeć.
Jeśli komputery mogą kontrolować lub przeprowadzać eksperymenty, następnie mogą także tworzyć nową wiedzę za pomocą systemów eksperckich lub sztucznej inteligencji. Taka "nowa" wiedza będzie jednak logicznie niewytłumaczalna dla ludzi. Nie mamy jeszcze bardzo dobrego zrozumienia tego, jak działa ludzki mózg, ale większość naukowców zgadza się, że istnieje duża autonomiczna sekcja (podświadomość), która generuje nową wiedzę, oraz jeszcze jedna sekcja (umysł), która zawiera logiczne wyjaśnienia tej nowej wiedzy. Konstruuje i upraszcza ją do wykorzystania w przyszłości.
Większość współczesnych systemów sztucznej inteligencji próbuje naśladować pracę podświadomości, podczas gdy druga część - strukturyzowanie i upraszczanie ludzkiej percepcji - wciąż unika implementacji. Co więcej, nie jest do końca jasne, czy będzie w stanie działać jako system "dla ludzkiej percepcji", czy też będzie konstruować informacje, aby były "zrozumiałe" dla innych komputerów (nie dla ludzi).
Parafrazując Arthura Clarka, amerykańskiego pisarza science fiction i futurologa, możemy powiedzieć, że każda wystarczająco rozwinięta wiedza jest nie do odróżnienia od magii. Oczywiście w przypadku skomplikowanych dziedzin wiedzy jest to już jakaś prawda, ale w przypadku wiedzy generowanej komputerowo będzie ona nie do odróżnienia od magii dla całej ludzkości.
Na przykład obecnie nie możemy logicznie (tj. z regułami i równaniami) wyjaśnić prognoz pogody sporządzonych przez sieci neuronowe na podstawie bieżących i przeszłych danych. Ponadto, nawet w prostszym obszarze: w większości przypadków nie jesteśmy w stanie "wyjaśnić" rozwiązań maszyny oceniającej, która przewiduje ryzyko kredytowe na podstawie danych historycznych dotyczących klientów bankowych. Otrzymujemy wniosek, ale nie ma "racjonalnego wyjaśnienia".
Jeśli spojrzymy na obecne projekty IT i przeanalizujemy ich związek ze społeczeństwem, możemy zauważyć następujące trendy.
Coraz więcej komunikacji odbywa się kanałami cyfrowymi we wszystkich sferach. Od osobistej komunikacji i gier po medycynę, interakcje z władzami publicznymi i nauką. Operatorzy sieci komórkowych i kablowych stopniowo przekształcają się w dostawców dostępu do zunifikowanej pojedynczej sieci - zajmą albo nową niszę (np. Firmy budujące i obsługujące autostrady), albo znajdą nowe sposoby interakcji z innymi segmentami - detalicznym, logistycznym , przemysł rozrywkowy, instytucje publiczne itp.
Cyfryzacja komunikacji
Cyfryzacja komunikacji doprowadzi do pełnej identyfikacji wszystkich zaangażowanych agentów, zarówno organizacji, jak i ludzi. Anonimowość jako taka wkrótce zniknie prawie całkowicie, ponieważ interesują się nią zarówno firmy, jak i rządy.
Opracowano wszystkie mechanizmy identyfikacji (oba formalne, jak i pośrednie), a także mechanizmy analizy, mapowania i obsługi danych. Przepisy dotyczące ochrony danych osobowych, chociaż wykorzystywane są dane docelowe, są obecnie dalekie od zastosowania. Nadal nie jest jasne, czy rzeczywiście można wdrożyć użyteczny, spójny i odpowiedni mechanizm.
Gromadzenie wielkich ilości dużych danych doprowadzi do dalszej ewolucji i wdrożenia systemów analizy maszynowej (sieci neuronowej sztucznej inteligencji oraz jeszcze nieznanych systemów), które będą wykorzystywane do identyfikacji interakcji podmiotu, analizy wzorców zachowań, prognozowania, a czasem (nielegalnie lub w "szarej" strefie) generowania nowych danych, których nie można odróżnić od rzeczywistych (fałszywe filmy, sfałszowane wiadomości, imitacje głosu itp.).