Making Slime With Funny Balloons and Pom Poms -Satisfying Slime Video
Europejska Organizacja Badań Jądrowych (CERN) właśnie wydała ogromną ilość danych zebranych przez Wielki Zderzacz Hadronów za pośrednictwem Portalu Otwartych Danych. Informacje zostały wydane w dwóch głównych formatach: podstawowych zestawach danych reprezentujących oryginalne dane, które naukowcy CERN przeanalizowaliby, oraz uzyskanych zbiorów danych, które są uproszczone w celu ułatwienia analizy i uczynienia danych potencjalnie potężnym narzędziem nauczania. CERN dostarcza również „maszynę wirtualną”, dostępną online dla wszystkich za darmo, aby pomóc użytkownikom analizować dane, co oznacza, że bez względu na to, jaki komputer posiadasz, możesz zepsuć wyniki jednego z największych eksperymenty w historii ludzkości.
Wielki Zderzacz Hadronów, najlepiej znany z odkrywania cząstki Bozonu Higgsa kilka lat temu, jest najpotężniejszym (i słynnym) akceleratorem cząstek na świecie. Dane, które CERN wydał z niego, wynoszą 300 terabajtów, co stanowi około połowy wszystkich danych LHC zebranych w 2011 r. Szczególnie interesujące dla wielu może być włączenie ponad 100 terabajtów danych do zderzeń protonów przy 7 TeV, według CERN. Ostatnia taka publikacja danych z CERN-u miała miejsce w listopadzie 2011 r., Ale obejmowała jedynie około 27 terabajtów.
Po zainstalowaniu maszyny wirtualnej (wystarczy kliknąć „Zainstaluj maszynę wirtualną” i postępować zgodnie z instrukcjami), możesz rozpocząć analizowanie danych z kompaktowego solenoidu jonowego (CMS), nawet jeśli nie masz dostępu do konkretnego oprogramowania zwykle jest to konieczne do przetwarzania danych tego typu - jest on wstępnie załadowany na maszynie wirtualnej. Następnie możesz wybrać pracę na podstawowym zbiorze danych lub na zredukowanym (pochodnym) zbiorze danych.
. @ CMSexperiment udostępnia 300 TB danych z badań LHC publicznie dostępnych http://t.co/Lq3ExL7owW#opendata #openscience pic.twitter.com/fCL6B1wwky
- CERN (@CERN) 25 kwietnia 2016 r
„Członkowie CMS Collaboration włożyli wiele wysiłku i tysiące godzin pracy każdej z usług w celu obsługi detektora CMS i zebrania tych danych badawczych do naszej analizy”, powiedziała Kati Lassila-Perini, fizyk CMS odpowiedzialny za ochrona danych w oświadczeniu. „Jednak po wyczerpaniu wiedzy o danych nie widzimy powodu, by nie udostępniać ich publicznie. Korzyści są liczne, od inspirowania uczniów szkół średnich po szkolenie fizyków cząstek elementarnych jutra. I osobiście, jako koordynator ochrony danych w CMS, jest to kluczowa część zapewnienia długoterminowej dostępności naszych danych badawczych. ”
Przedstawiciele CERN wyrazili również pragnienie świeżego spojrzenia na dane, twierdząc, że udostępnienie informacji w tak ogromnych ilościach pomogło rozwinąć ducha współpracy, a tym samym ułatwić więcej odkryć.
„Jesteśmy bardzo zadowoleni, że możemy udostępnić wszystkie te dane publicznie”, powiedział Lassila-Perini w oświadczeniu. „Z niecierpliwością czekamy na to, jak będą one wykorzystywane poza naszą współpracą, zarówno do badań, jak i do budowania narzędzi edukacyjnych”.
Biometryczna baza danych oczu syryjskich uchodźców może im pomóc wejść do USA
Intencje administracji Obamy, aby powitać 10 000 syryjskich uchodźców w następnym roku, spotkały się z politycznym gwizdem, który był znakiem rozpoznawczym ostatnich ośmiu lat. Niektóre reakcje były gorsze niż inne. Niezależnie od tego, na którą stronę debaty się wpadniesz, Stany Zjednoczone będą gotowe na przyjęcie niektórych od dawna używanych U ...
CERN, siedziba Wielkiego Zderzacza Hadronów, teraz siedlisko homofobicznego skandalu
CERN (Conseil Européen pour la Recherche Nucléaire) ma kluczowe znaczenie w opracowywaniu ujednolicających teorii na temat znanego wszechświata, tak jak słynne europejskie laboratorium fizyki cząstek i miejsce narodzin bozonu Higgsa. Jest to szczególnie ironiczne, w świetle osiągnięć naukowych, że laboratorium jest także domem dla wojny ...
Naukowcy udowodnili, że używanie dużych danych może zrobić tyłek z ciebie i mnie
W 1997 r. Naukowcy NASA wymyślili wyrażenie „duże dane”, aby opisać przetwarzanie informacji o dużej objętości przez superkomputery. Do 2008 r. Duże dane zostały przedstawione jako bezprecedensowe narzędzie zdolne do rozwiązania problemów, które nękały naukę, edukację, technologię i - głównie, jeśli mamy być szczerzy - biznes. Ale...