Binance Square

MrAnderson

Metaverso, Ingeniería en Inteligencia Artificial, Análisis Criptos, Filosofia Práctica y mucha meditación.✌🤠
Otwarta transakcja
Trader standardowy
Lata: 6.1
19 Obserwowani
620 Obserwujący
794 Polubione
199 Udostępnione
Treść
Portfolio
--
Zobacz oryginał
Ekspert ds. bezpieczeństwa cybernetycznego ostrzega, że obładowanie ChatGPT to niestabilna burza. Podczas gdy liderzy branży bronią zrównoważonego rozwoju, analitycy przypominają historyczne przypadki przeprowadzonych przesadzeń i sugerują ostrożność wobec szybkości i objętości obecnych inwestycji. Entuzjazm globalny wobec sztucznej inteligencji i narzędzi takich jak ChatGPT wywołał milionowe inwestycje w sektorze technologicznym. Jednak krytycy ostrzegają, że ten wzrost może napędzać burzę o trudnej utrzymaniu. Shlomo Kramer, współzałożyciel firmy ds. bezpieczeństwa cybernetycznego Cato Networks, stwierdził, że skala inwestycji w AI nie jest uzasadniona obecnymi rezultatami i że wkrótce wiele firm może zmierzyć się z poważnymi konsekwencjami, jeśli rzeczywistość nie spełni oczekiwań wywołanych. Wzrost sztucznej inteligencji był tak szybki, że wiele firm postawiło swój przyszły los na automatyzację i przetwarzanie danych na dużą skalę. ChatGPT i inne modele generatywne napędzały przekonanie, że AI będzie głównym silnikiem gospodarki i innowacji w nadchodzących latach. Jednak według Kramer'a istnieje rozłączenie między obietnicą a rzeczywistymi korzyściami osiągniętymi do tej pory. Dlaczego eksperci ostrzegają o burzy w dziedzinie AI Kramer nie zawahał się nazwać tego zjawiska „manualną burzą". W rozmowie z Business Insider wskazał, że inwestycje w sztuczną inteligencję są przesadzone i że technologia nie rozwija się w takim samym tempie, jak kapitał przeznaczony na jej rozwój.
Ekspert ds. bezpieczeństwa cybernetycznego ostrzega, że obładowanie ChatGPT to niestabilna burza.

Podczas gdy liderzy branży bronią zrównoważonego rozwoju, analitycy przypominają historyczne przypadki przeprowadzonych przesadzeń i sugerują ostrożność wobec szybkości i objętości obecnych inwestycji.

Entuzjazm globalny wobec sztucznej inteligencji i narzędzi takich jak ChatGPT wywołał milionowe inwestycje w sektorze technologicznym.

Jednak krytycy ostrzegają, że ten wzrost może napędzać burzę o trudnej utrzymaniu.

Shlomo Kramer, współzałożyciel firmy ds. bezpieczeństwa cybernetycznego Cato Networks, stwierdził, że skala inwestycji w AI nie jest uzasadniona obecnymi rezultatami i że wkrótce wiele firm może zmierzyć się z poważnymi konsekwencjami, jeśli rzeczywistość nie spełni oczekiwań wywołanych.

Wzrost sztucznej inteligencji był tak szybki, że wiele firm postawiło swój przyszły los na automatyzację i przetwarzanie danych na dużą skalę.

ChatGPT i inne modele generatywne napędzały przekonanie, że AI będzie głównym silnikiem gospodarki i innowacji w nadchodzących latach.

Jednak według Kramer'a istnieje rozłączenie między obietnicą a rzeczywistymi korzyściami osiągniętymi do tej pory.

Dlaczego eksperci ostrzegają o burzy w dziedzinie AI

Kramer nie zawahał się nazwać tego zjawiska „manualną burzą".

W rozmowie z Business Insider wskazał, że inwestycje w sztuczną inteligencję są przesadzone i że technologia nie rozwija się w takim samym tempie, jak kapitał przeznaczony na jej rozwój.
Zobacz oryginał
OpenAI oferuje 550 000 USD wynagrodzenia za zatrudnienie eksperta, który przygotuje ich na zagrożenia związane z AI Amerykańska firma intensyfikuje rozwój zaawansowanych mechanizmów, aby zapewnić ochronę i zaufanie użytkowników w ekosystemie cyfrowym OpenAI opublikowało ofertę pracy na wysokie stanowisko mające na celu przewidywanie i łagodzenie zagrożeń związanych z sztuczną inteligencją, z rocznym wynagrodzeniem 555 000 USD oraz akcjami. Wolne stanowisko ma na celu zatrudnienie szefa ds. przygotowania, który odegra kluczową rolę w identyfikacji i odpowiedzi na ryzyka związane ze zdrowiem psychicznym użytkowników oraz bezpieczeństwem cybernetycznym, co odzwierciedla wzrost wyzwań związanych z masowym wdrażaniem modeli AI. Stanowisko wymaga podejmowania kluczowych decyzji od momentu zatrudnienia. W publikacji na X, Sam Altman, dyrektor generalny OpenAI, podkreślił poziom wymagań związanych z tym stanowiskiem: "Będzie to praca pod dużą presją, w której od początku będziesz musiał stawić czoła krytycznym odpowiedzialnościom". Wymagany profil powinien wnosić skuteczne podejścia do rozwijania rozwiązań, które pozwolą obrońcom cyberbezpieczeństwa wykorzystać nowoczesne możliwości, jednocześnie blokując ich niewłaściwe wykorzystanie przez złowrogie podmioty. Podkreśla się również pilność zapewnienia bezpiecznych strategii dla uwolnienia zdolności biologicznych oraz utrzymania integralności systemów z możliwością samodoskonalenia. Ta decyzja wynika z rosnącego niepokoju w branży technologicznej dotyczącego ryzyk reputacyjnych i operacyjnych wynikających z postępu sztucznej inteligencji. Raport opublikowany w listopadzie przez firmę analityczną wskazał, że w ciągu pierwszych jedenastu miesięcy minionego roku co najmniej 418 firm wycenianych na ponad 1 000 000 000 USD wspomniało o ryzykach związanych z AI w swoich raportach przed Komisją Papierów Wartościowych i Giełd Stanów Zjednoczonych.
OpenAI oferuje 550 000 USD wynagrodzenia za zatrudnienie eksperta, który przygotuje ich na zagrożenia związane z AI

Amerykańska firma intensyfikuje rozwój zaawansowanych mechanizmów, aby zapewnić ochronę i zaufanie użytkowników w ekosystemie cyfrowym

OpenAI opublikowało ofertę pracy na wysokie stanowisko mające na celu przewidywanie i łagodzenie zagrożeń związanych z sztuczną inteligencją, z rocznym wynagrodzeniem 555 000 USD oraz akcjami.

Wolne stanowisko ma na celu zatrudnienie szefa ds. przygotowania, który odegra kluczową rolę w identyfikacji i odpowiedzi na ryzyka związane ze zdrowiem psychicznym użytkowników oraz bezpieczeństwem cybernetycznym, co odzwierciedla wzrost wyzwań związanych z masowym wdrażaniem modeli AI.

Stanowisko wymaga podejmowania kluczowych decyzji od momentu zatrudnienia. W publikacji na X, Sam Altman, dyrektor generalny OpenAI, podkreślił poziom wymagań związanych z tym stanowiskiem: "Będzie to praca pod dużą presją, w której od początku będziesz musiał stawić czoła krytycznym odpowiedzialnościom".

Wymagany profil powinien wnosić skuteczne podejścia do rozwijania rozwiązań, które pozwolą obrońcom cyberbezpieczeństwa wykorzystać nowoczesne możliwości, jednocześnie blokując ich niewłaściwe wykorzystanie przez złowrogie podmioty. Podkreśla się również pilność zapewnienia bezpiecznych strategii dla uwolnienia zdolności biologicznych oraz utrzymania integralności systemów z możliwością samodoskonalenia.

Ta decyzja wynika z rosnącego niepokoju w branży technologicznej dotyczącego ryzyk reputacyjnych i operacyjnych wynikających z postępu sztucznej inteligencji.

Raport opublikowany w listopadzie przez firmę analityczną wskazał, że w ciągu pierwszych jedenastu miesięcy minionego roku co najmniej 418 firm wycenianych na ponad 1 000 000 000 USD wspomniało o ryzykach związanych z AI w swoich raportach przed Komisją Papierów Wartościowych i Giełd Stanów Zjednoczonych.
Zobacz oryginał
IA przynosi więcej napięcia: pracownicy chcą pracować mniej, ponieważ IA pomaga. CEO wymagają, aby ludzie byli maszynami bez odpoczynku. Pod pretekstem wydajności, CEO coraz częściej wymagają więcej godzin. W międzyczasie, ludzie oczekują, że IA zabierze im godziny ich zadań. Równowaga między życiem zawodowym a osobistym a dniami pracy 996, które wiele firm IA wymaga zarówno w Stanach Zjednoczonych, jak i w Europie. Istnieje istotna różnica między tym, co pracownicy zaczęli doceniać z upływem czasu, a tym, co menedżerowie wymagają w firmach od swoich pracowników pod groźbą, że sztuczna inteligencja może odebrać im pracę. A nowe dane ujawniają tę rzeczywistość. Według Randstad, 74% pokolenia Z uważa, że równowaga między życiem zawodowym a osobistym jest jednym z głównych kryteriów przy wyborze pracy w 2025 roku, najwyższy procent wśród wszystkich pokoleń. Zgodnie z danymi Fortune, po 20 latach sporządzania swojego raportu Workmonitor, po raz pierwszy równowaga między życiem zawodowym a osobistym przewyższa wynagrodzenie jako główny czynnik dla wszystkich pracowników. W Genbeta zebraliśmy już inne raporty, które pokazują podobne trendy. Firma doradcza Deloitte stwierdziła w raporcie z 2023 roku, że młodzież "ma całkowicie unikalną perspektywę na kariery zawodowe i na to, jak definiować sukces w życiu i w świecie pracy" w porównaniu do starszych. I raport stwierdził, że "ich priorytety to znalezienie równowagi między życiem zawodowym a osobistym, ale także to, aby ich praca miała sens i aby mogli uczyć się i nabywać nowe umiejętności". Ambicje pracowników... i IA Ale... to wszystko zderza się z inną rzeczywistością. W miarę jak IA przekształca struktury korporacyjne, wielu menedżerów woła, że pracują ciężej niż kiedykolwiek i oczekują, że wszyscy inni pójdą za ich przykładem.
IA przynosi więcej napięcia: pracownicy chcą pracować mniej, ponieważ IA pomaga. CEO wymagają, aby ludzie byli maszynami bez odpoczynku.

Pod pretekstem wydajności, CEO coraz częściej wymagają więcej godzin. W międzyczasie, ludzie oczekują, że IA zabierze im godziny ich zadań.

Równowaga między życiem zawodowym a osobistym a dniami pracy 996, które wiele firm IA wymaga zarówno w Stanach Zjednoczonych, jak i w Europie.

Istnieje istotna różnica między tym, co pracownicy zaczęli doceniać z upływem czasu, a tym, co menedżerowie wymagają w firmach od swoich pracowników pod groźbą, że sztuczna inteligencja może odebrać im pracę.

A nowe dane ujawniają tę rzeczywistość. Według Randstad, 74% pokolenia Z uważa, że równowaga między życiem zawodowym a osobistym jest jednym z głównych kryteriów przy wyborze pracy w 2025 roku, najwyższy procent wśród wszystkich pokoleń.

Zgodnie z danymi Fortune, po 20 latach sporządzania swojego raportu Workmonitor, po raz pierwszy równowaga między życiem zawodowym a osobistym przewyższa wynagrodzenie jako główny czynnik dla wszystkich pracowników.

W Genbeta zebraliśmy już inne raporty, które pokazują podobne trendy.

Firma doradcza Deloitte stwierdziła w raporcie z 2023 roku, że młodzież "ma całkowicie unikalną perspektywę na kariery zawodowe i na to, jak definiować sukces w życiu i w świecie pracy" w porównaniu do starszych.

I raport stwierdził, że "ich priorytety to znalezienie równowagi między życiem zawodowym a osobistym, ale także to, aby ich praca miała sens i aby mogli uczyć się i nabywać nowe umiejętności".

Ambicje pracowników... i IA
Ale... to wszystko zderza się z inną rzeczywistością.

W miarę jak IA przekształca struktury korporacyjne, wielu menedżerów woła, że pracują ciężej niż kiedykolwiek i oczekują, że wszyscy inni pójdą za ich przykładem.
Zobacz oryginał
Sam Altman (40), twórca ChatGPT, ekspert w dziedzinie sztucznej inteligencji: “Będą naprawdę przerażające momenty. Mam nadzieję, że z powodu technologii wydarzy się kilka złych rzeczy” Dyrektor generalny OpenAI zazwyczaj jest optymistyczny w odniesieniu do sztucznej inteligencji, chociaż jest świadomy ryzyka, jakie niesie ze sobą rozwój technologii. Mówiąc o Samie Altmanie, dyrektorze generalnym OpenAI, prawdopodobnie mówimy o guru technologicznym tego momentu. Zazwyczaj mówi się, że kto uderza pierwszy, ten uderza dwa razy i to samo możemy zastosować w tym przypadku, ponieważ wraz z wydaniem ChatGPT 30 listopada 2022 roku, ekspert wyprzedził wszystkich i niechcący stał się odniesieniem. Stworzenie Altmana wyznaczyło drogę do naśladowania dla reszty i jeśli mówimy o chatbotach lub dużych modelach językowych (LLM, po angielsku), to jego hegemonia jest niezaprzeczalna. To nie znaczy, że jest bezwzględnie najlepszy lub że nie ma dobrych alternatyw obecnie, ale udało mu się zainstalować w pamięci zbiorowej jako pionier, a to jest ogromna przewaga konkurencyjna. I ten fakt, dodatkowo, również wyniósł jego głównego prowodyra. Sam Altman nie ma CV wielkich jak Geoffrey Hinton, Yann LeCun, Yoshua Bengio, Stuart Russell czy Ray Kurzweil, aby wymienić tylko niektórych, ale jego opinia zazwyczaj jest jedną z najbardziej wpływowych i ta, która najgłębiej dociera do opinii publicznej, ponieważ jest miłym obliczem sztucznej inteligencji. Najgorsze lęki Sama Altmana Kiedy pojawia się w podcaście lub w programie telewizyjnym w ostatnich czasach, co staje się coraz częstsze, zazwyczaj pokazuje względnie ślepą wiarę w rozwój technologii i jej ogromne możliwości. Okazuje ogromny entuzjazm wobec przyszłości, która nas czeka. I to normalne, ponieważ w końcu musi również sprzedawać zalety swojego produktu, ale jeśli czytamy między wierszami, jest też miejsce na człowieka dręczonego, który włączył przełącznik, którego nie wiemy, czy będziemy mogli wyłączyć, gdy nadejdzie czas.
Sam Altman (40), twórca ChatGPT, ekspert w dziedzinie sztucznej inteligencji: “Będą naprawdę przerażające momenty.

Mam nadzieję, że z powodu technologii wydarzy się kilka złych rzeczy”

Dyrektor generalny OpenAI zazwyczaj jest optymistyczny w odniesieniu do sztucznej inteligencji, chociaż jest świadomy ryzyka, jakie niesie ze sobą rozwój technologii.

Mówiąc o Samie Altmanie, dyrektorze generalnym OpenAI, prawdopodobnie mówimy o guru technologicznym tego momentu.

Zazwyczaj mówi się, że kto uderza pierwszy, ten uderza dwa razy i to samo możemy zastosować w tym przypadku, ponieważ wraz z wydaniem ChatGPT 30 listopada 2022 roku, ekspert wyprzedził wszystkich i niechcący stał się odniesieniem.

Stworzenie Altmana wyznaczyło drogę do naśladowania dla reszty i jeśli mówimy o chatbotach lub dużych modelach językowych (LLM, po angielsku), to jego hegemonia jest niezaprzeczalna.

To nie znaczy, że jest bezwzględnie najlepszy lub że nie ma dobrych alternatyw obecnie, ale udało mu się zainstalować w pamięci zbiorowej jako pionier, a to jest ogromna przewaga konkurencyjna.

I ten fakt, dodatkowo, również wyniósł jego głównego prowodyra.

Sam Altman nie ma CV wielkich jak Geoffrey Hinton, Yann LeCun, Yoshua Bengio, Stuart Russell czy Ray Kurzweil, aby wymienić tylko niektórych, ale jego opinia zazwyczaj jest jedną z najbardziej wpływowych i ta, która najgłębiej dociera do opinii publicznej, ponieważ jest miłym obliczem sztucznej inteligencji.

Najgorsze lęki Sama Altmana
Kiedy pojawia się w podcaście lub w programie telewizyjnym w ostatnich czasach, co staje się coraz częstsze, zazwyczaj pokazuje względnie ślepą wiarę w rozwój technologii i jej ogromne możliwości. Okazuje ogromny entuzjazm wobec przyszłości, która nas czeka.

I to normalne, ponieważ w końcu musi również sprzedawać zalety swojego produktu, ale jeśli czytamy między wierszami, jest też miejsce na człowieka dręczonego, który włączył przełącznik, którego nie wiemy, czy będziemy mogli wyłączyć, gdy nadejdzie czas.
Zobacz oryginał
Już straciłeś swoją inwestycję, przyjacielu. Nie trać 25$ więcej. To jest sposób oszustwa, w którym proszą cię o pieniądze, aby móc otrzymać wygórowane zyski, które ci obiecano.
Już straciłeś swoją inwestycję, przyjacielu. Nie trać 25$ więcej. To jest sposób oszustwa, w którym proszą cię o pieniądze, aby móc otrzymać wygórowane zyski, które ci obiecano.
Cytowana treść została usunięta
Zobacz oryginał
Sam Altman, twórca ChatGPT i CEO OpenAI: “Sztuczna inteligencja oznacza radykalną zmianę w zakresie możliwości” Ekspert w dziedzinie technologii ogłosił nowy postęp, który wprowadza AI i może zrewolucjonizować nasz sposób pracy i życia. Sztuczna inteligencja w codziennym życiu nie jest tak odległą rzeczywistością. Już są tacy, którzy korzystają z ChatGPT lub używają podobnych asystentów wirtualnych do planowania projektów i organizowania zadań. Jest prawą ręką wielu i, chociaż ma swoje ograniczenia, staje się coraz bardziej zaawansowana. Eksperci w tej technologii pracują nad zwiększeniem jej możliwości i oferowaniem produktu, który poprawi nasze życie. Sam Altman, twórca ChatGPT i CEO OpenAI, ogłosił, co będzie jego następne wydanie. Może sztuczna inteligencja jest w swoim najwyższym punkcie, ale nie możemy tego wiedzieć na pewno, ponieważ technologia rozwija się w szybkim tempie. Niektórzy eksperci przewidują, że za 10 lat AI zrewolucjonizuje sektor pracy, tak jak go znamy. Inni uważają, że będzie miała znacznie ważniejszą rolę, zdolną do zastąpienia setek ludzkich zadań. Podczas gdy to scenariusz nadchodzi, eksperci pracują nad nowymi urządzeniami.
Sam Altman, twórca ChatGPT i CEO OpenAI: “Sztuczna inteligencja oznacza radykalną zmianę w zakresie możliwości”

Ekspert w dziedzinie technologii ogłosił nowy postęp, który wprowadza AI i może zrewolucjonizować nasz sposób pracy i życia. Sztuczna inteligencja w codziennym życiu nie jest tak odległą rzeczywistością.

Już są tacy, którzy korzystają z ChatGPT lub używają podobnych asystentów wirtualnych do planowania projektów i organizowania zadań.

Jest prawą ręką wielu i, chociaż ma swoje ograniczenia, staje się coraz bardziej zaawansowana.

Eksperci w tej technologii pracują nad zwiększeniem jej możliwości i oferowaniem produktu, który poprawi nasze życie. Sam Altman, twórca ChatGPT i CEO OpenAI, ogłosił, co będzie jego następne wydanie.

Może sztuczna inteligencja jest w swoim najwyższym punkcie, ale nie możemy tego wiedzieć na pewno, ponieważ technologia rozwija się w szybkim tempie.

Niektórzy eksperci przewidują, że za 10 lat AI zrewolucjonizuje sektor pracy, tak jak go znamy.

Inni uważają, że będzie miała znacznie ważniejszą rolę, zdolną do zastąpienia setek ludzkich zadań.

Podczas gdy to scenariusz nadchodzi, eksperci pracują nad nowymi urządzeniami.
--
Niedźwiedzi
Zobacz oryginał
Wall Street wycofuje 900 milionów USD w bitcoinach, przyspieszając załamanie ETF-y bitcoinów na rynku spot miały drugą co do wielkości dzienną wypłatę kapitału w swojej historii. Fundusze notowane na giełdzie (ETF) bitcoinów (BTC) na rynku spot, które działają na Wall Street, zarejestrowały wypłatę kapitału w wysokości 900 milionów dolarów wczoraj, 20 listopada. Ten masowy ruch inwestorów stanowi drugą co do wielkości dzienną wypłatę kapitału od momentu wprowadzenia tych produktów inwestycyjnych w styczniu 2024 roku, wywierając znaczną presję spadkową na bitcoina. Wypływ kapitału był kierowany przez fundusz iShares Bitcoin Trust (IBIT), zarządzany przez BlackRock, z wykupami, które osiągnęły 355 milionów dolarów. Za nim podążył Grayscale Bitcoin Trust (GBTC), który zgłosił wypływy w wysokości 199 milionów dolarów. Inne fundusze, które przyczyniły się do wypłaty kapitału, były zarządzane przez firmy takie jak Fidelity, VanEck, Bitwise i Ark Invest. Na poniższym wykresie widać, jak wyglądały przepływy kapitału z lub do ETF-ów BTC. Działanie ETF-ów na rynku spot oznacza, że zarządzający kupują i utrzymują bitcoiny, aby zabezpieczyć akcje, które emitują. W związku z tym, gdy inwestorzy wycofują swój kapitał, zarządzający są zmuszeni do sprzedaży części swoich posiadłości cyfrowej waluty, aby pokryć te wykupy. Ten wzrost podaży bitcoina na rynku, bez wystarczającego popytu, aby go wchłonąć, działa jako bezpośredni czynnik presji spadkowej na jego cenę.
Wall Street wycofuje 900 milionów USD w bitcoinach, przyspieszając załamanie

ETF-y bitcoinów na rynku spot miały drugą co do wielkości dzienną wypłatę kapitału w swojej historii.

Fundusze notowane na giełdzie (ETF) bitcoinów (BTC) na rynku spot, które działają na Wall Street, zarejestrowały wypłatę kapitału w wysokości 900 milionów dolarów wczoraj, 20 listopada.

Ten masowy ruch inwestorów stanowi drugą co do wielkości dzienną wypłatę kapitału od momentu wprowadzenia tych produktów inwestycyjnych w styczniu 2024 roku, wywierając znaczną presję spadkową na bitcoina.

Wypływ kapitału był kierowany przez fundusz iShares Bitcoin Trust (IBIT), zarządzany przez BlackRock, z wykupami, które osiągnęły 355 milionów dolarów.

Za nim podążył Grayscale Bitcoin Trust (GBTC), który zgłosił wypływy w wysokości 199 milionów dolarów.

Inne fundusze, które przyczyniły się do wypłaty kapitału, były zarządzane przez firmy takie jak Fidelity, VanEck, Bitwise i Ark Invest.

Na poniższym wykresie widać, jak wyglądały przepływy kapitału z lub do ETF-ów BTC.

Działanie ETF-ów na rynku spot oznacza, że zarządzający kupują i utrzymują bitcoiny, aby zabezpieczyć akcje, które emitują.

W związku z tym, gdy inwestorzy wycofują swój kapitał, zarządzający są zmuszeni do sprzedaży części swoich posiadłości cyfrowej waluty, aby pokryć te wykupy.

Ten wzrost podaży bitcoina na rynku, bez wystarczającego popytu, aby go wchłonąć, działa jako bezpośredni czynnik presji spadkowej na jego cenę.
--
Niedźwiedzi
Zobacz oryginał
Sam Altman, maksymalny odpowiedzialny za ChatGPT, dzieli się swoją "najlepszą przypadkową radą zawodową" Najlepszy moment na zajęcie się informatyką to teraz. Przynajmniej tak uważa dyrektor generalny OpenAI i maksymalny odpowiedzialny za ChatGPT, Sam Altman. "Jakże interesujący i obiecujący moment", komentował Altman w wywiadzie z Danem Bonehem, profesorem na Uniwersytecie Stanforda (w Stanach Zjednoczonych), opublikowanym w tę środę. "Oczywiście, skupiłbym się na AI". CEO jednej z najnowocześniejszych firm zajmujących się sztuczną inteligencją w dzisiejszych czasach bronił, że AI to nie tylko najgorętszy obszar zawodowy w tym momencie, ale technologia, która zdefiniuje tę generację. "Może to być najważniejsze w znacznie dłuższym okresie czasu", dodał Altman. Ten przedsiębiorca otwarcie wyraził swoje przekonanie, że sztuczna inteligencja przekształci prawie wszystkie aspekty pracy i społeczeństwa. Dyrektor generalny OpenAI bronił w zeszłym tygodniu w ostatnim odcinku podcastu Conversations with Tyler, że wstydziłby się, gdyby jego firma nie była pierwszą dużą organizacją kierowaną przez "CEO AI". Sztuczna inteligencja ogólna (AGI, według angielskich skrótów), ta technologia, która byłaby w stanie rozumować na równi lub lepiej niż człowiek, była głównym celem twórcy ChatGPT od jego pierwszych dni jako laboratorium badawczego. Podczas transmisji na żywo, która miała miejsce w październiku, Altman powiedział, że celem OpenAI jest "mieć prawdziwego zautomatyzowanego badacza AI do marca 2028". Podczas swojej niedawnej rozmowy z Bonehem, przedsiębiorca również podzielił się tym, co sam nazwał swoją "najlepszą przypadkową radą zawodową".
Sam Altman, maksymalny odpowiedzialny za ChatGPT, dzieli się swoją "najlepszą przypadkową radą zawodową"

Najlepszy moment na zajęcie się informatyką to teraz.

Przynajmniej tak uważa dyrektor generalny OpenAI i maksymalny odpowiedzialny za ChatGPT, Sam Altman.

"Jakże interesujący i obiecujący moment", komentował Altman w wywiadzie z Danem Bonehem, profesorem na Uniwersytecie Stanforda (w Stanach Zjednoczonych), opublikowanym w tę środę. "Oczywiście, skupiłbym się na AI".

CEO jednej z najnowocześniejszych firm zajmujących się sztuczną inteligencją w dzisiejszych czasach bronił, że AI to nie tylko najgorętszy obszar zawodowy w tym momencie, ale technologia, która zdefiniuje tę generację.

"Może to być najważniejsze w znacznie dłuższym okresie czasu", dodał Altman.

Ten przedsiębiorca otwarcie wyraził swoje przekonanie, że sztuczna inteligencja przekształci prawie wszystkie aspekty pracy i społeczeństwa.

Dyrektor generalny OpenAI bronił w zeszłym tygodniu w ostatnim odcinku podcastu Conversations with Tyler, że wstydziłby się, gdyby jego firma nie była pierwszą dużą organizacją kierowaną przez "CEO AI".

Sztuczna inteligencja ogólna (AGI, według angielskich skrótów), ta technologia, która byłaby w stanie rozumować na równi lub lepiej niż człowiek, była głównym celem twórcy ChatGPT od jego pierwszych dni jako laboratorium badawczego.

Podczas transmisji na żywo, która miała miejsce w październiku, Altman powiedział, że celem OpenAI jest "mieć prawdziwego zautomatyzowanego badacza AI do marca 2028".

Podczas swojej niedawnej rozmowy z Bonehem, przedsiębiorca również podzielił się tym, co sam nazwał swoją "najlepszą przypadkową radą zawodową".
Zobacz oryginał
Ściągając wszystko poza wymianą USDT/VES 😂
Ściągając wszystko poza wymianą USDT/VES 😂
--
Niedźwiedzi
Zobacz oryginał
$BTC is Wypadek 👀
$BTC is Wypadek 👀
Zobacz oryginał
Sam Altman, CEO OpenAI, został przerwany i wezwany do sądu podczas wydarzenia. Wezwanie zostało złożone w imieniu Stop AI, kolektywu, który organizuje protesty przeciwko OpenAI i wielokrotnie blokował dostęp do siedziby firmy w mieście. Sam Altman, dyrektor wykonawczy OpenAI i jedna z najbardziej wpływowych postaci w rozwoju sztucznej inteligencji, został zaskoczony w poniedziałek, gdy mężczyzna wszedł na scenę podczas publicznego wydarzenia i wręczył mu wezwanie sądowe, co wywołało buczenie i szepty wśród uczestników. Altman uczestniczył w rozmowie z trenerem Golden State Warriors, Steve'em Kerr'em, moderowanej przez Manny'ego Yekutiela. W trakcie rozmowy, jedna osoba wtargnęła na scenę, aby wręczyć mu wezwanie. Chociaż dokument nie trafił bezpośrednio do rąk Altmana, członek ochrony go wziął i eskortował mężczyznę z miejsca, powiadomienie wciąż pozostaje ważne zgodnie z prawem kalifornijskim, nawet jeśli osoba wezwana nie otrzyma go fizycznie. Tożsamość mężczyzny została później potwierdzona: jest pracownikiem Biura Obrońcy Publicznego w San Francisco. Wezwanie zostało złożone w imieniu Stop AI, kolektywu, który organizuje protesty przeciwko OpenAI i wielokrotnie blokował dostęp do siedziby firmy w mieście. Niektórzy z jego członków zostali aresztowani i czekają na proces. Według rzeczniczki Biura Obrońcy Publicznego, Valerie Ibarra, wcześniej próbowano wezwać Altmana zarówno w siedzibie jego firmy, jak i za pośrednictwem wniosków elektronicznych, bez skutku. Altman został wezwany do zeznawania jako potencjalny świadek w procesie karnym, w którym aktywiści są oskarżeni o utrudnianie podczas swoich protestów. W oświadczeniu opublikowanym na X, grupa Stop AI stwierdziła, że jej celem jest zwrócenie uwagi na to, co uważa za zagrożenie egzystencjalne: rozwój systemów sztucznej inteligencji bardziej zaawansowanych niż człowiek.
Sam Altman, CEO OpenAI, został przerwany i wezwany do sądu podczas wydarzenia.

Wezwanie zostało złożone w imieniu Stop AI, kolektywu, który organizuje protesty przeciwko OpenAI i wielokrotnie blokował dostęp do siedziby firmy w mieście.

Sam Altman, dyrektor wykonawczy OpenAI i jedna z najbardziej wpływowych postaci w rozwoju sztucznej inteligencji, został zaskoczony w poniedziałek, gdy mężczyzna wszedł na scenę podczas publicznego wydarzenia i wręczył mu wezwanie sądowe, co wywołało buczenie i szepty wśród uczestników.

Altman uczestniczył w rozmowie z trenerem Golden State Warriors, Steve'em Kerr'em, moderowanej przez Manny'ego Yekutiela. W trakcie rozmowy, jedna osoba wtargnęła na scenę, aby wręczyć mu wezwanie.

Chociaż dokument nie trafił bezpośrednio do rąk Altmana, członek ochrony go wziął i eskortował mężczyznę z miejsca, powiadomienie wciąż pozostaje ważne zgodnie z prawem kalifornijskim, nawet jeśli osoba wezwana nie otrzyma go fizycznie.

Tożsamość mężczyzny została później potwierdzona: jest pracownikiem Biura Obrońcy Publicznego w San Francisco.

Wezwanie zostało złożone w imieniu Stop AI, kolektywu, który organizuje protesty przeciwko OpenAI i wielokrotnie blokował dostęp do siedziby firmy w mieście. Niektórzy z jego członków zostali aresztowani i czekają na proces.

Według rzeczniczki Biura Obrońcy Publicznego, Valerie Ibarra, wcześniej próbowano wezwać Altmana zarówno w siedzibie jego firmy, jak i za pośrednictwem wniosków elektronicznych, bez skutku.

Altman został wezwany do zeznawania jako potencjalny świadek w procesie karnym, w którym aktywiści są oskarżeni o utrudnianie podczas swoich protestów.

W oświadczeniu opublikowanym na X, grupa Stop AI stwierdziła, że jej celem jest zwrócenie uwagi na to, co uważa za zagrożenie egzystencjalne: rozwój systemów sztucznej inteligencji bardziej zaawansowanych niż człowiek.
Zobacz oryginał
Inwestycja, ta zaliczka naładowana marzeniami i nadziejami na rozwiązany przyszłość, gdzie jej wynik jest uosobieniem swobody i spokoju. Podczas gdy straty i niska rentowność są potworem, który przekształca inwestycję w marginalną transakcję. Konieczne jest zastosowanie ryzyka do zysku, aby móc określić, czy inwestycja jest wspierana przez rozsądek i zdrowy rozsądek, aby osiągnąć prawdziwy sukces.
Inwestycja, ta zaliczka naładowana marzeniami i nadziejami na rozwiązany przyszłość, gdzie jej wynik jest uosobieniem swobody i spokoju.

Podczas gdy straty i niska rentowność są potworem, który przekształca inwestycję w marginalną transakcję.

Konieczne jest zastosowanie ryzyka do zysku, aby móc określić, czy inwestycja jest wspierana przez rozsądek i zdrowy rozsądek, aby osiągnąć prawdziwy sukces.
Zobacz oryginał
Sam Altman, twórca ChatGPT, ekspert w dziedzinie sztucznej inteligencji: “Nie śpię dobrze w nocy. Nie spałem dobrze ani jednej nocy od momentu uruchomienia ChatGPT” CEO OpenAI zapewnia, że odpowiedzialności związane z jego pracą nad ChatGPT oraz decyzjami, które musi podejmować, są trudnym obciążeniem do zarządzania, szczególnie gdy porusza się również kwestie moralne. W ostatnich czasach wiele mówi się i pisze o sztucznej inteligencji oraz jej różnych implikacjach na poziomie geopolitycznym, społecznym, zdrowotnym, ekonomicznym czy zawodowym. Nawet spekulowano na temat terminów takich jak osobliwość, teoretyczny punkt, w którym maszyna przewyższy człowieka w inteligencji, czy transhumanizm, który fantazjuje o poprawie ludzkich zdolności pod egidą technologii w dążeniu do nieśmiertelności. Jednak niewiele mówi się o debacie nad moralnością i o tym, jakie zasady etyczne leżą u podstaw sztucznej inteligencji, gdy ktoś taki jak ty lub ja stawia jej pytanie. Jak powinien się zachować model językowy? Co powinien zrobić? Jak odmówić czemuś? Jak powinien odpowiedzieć? Ciężar podejmowania decyzji, które wpływają na miliony ludzi Oczywiście, nikt lepiej niż Sam Altman, twórca ChatGPT, nie jest w stanie odpowiedzieć, jak zachowuje się jego twór i jakie są granice, które zostały wyznaczone lub wyzwania, przed którymi stoi, a nie jest ich mało. "To trudna kwestia, ponieważ jest wiele osób z różnymi perspektywami życiowymi, ale ogólnie zaskoczyła mnie ogólna zdolność modelu do nauki i zastosowania ram moralnych", zapewnia w wywiadzie w The Tucker Carlson Show.
Sam Altman, twórca ChatGPT, ekspert w dziedzinie sztucznej inteligencji: “Nie śpię dobrze w nocy. Nie spałem dobrze ani jednej nocy od momentu uruchomienia ChatGPT”

CEO OpenAI zapewnia, że odpowiedzialności związane z jego pracą nad ChatGPT oraz decyzjami, które musi podejmować, są trudnym obciążeniem do zarządzania, szczególnie gdy porusza się również kwestie moralne.

W ostatnich czasach wiele mówi się i pisze o sztucznej inteligencji oraz jej różnych implikacjach na poziomie geopolitycznym, społecznym, zdrowotnym, ekonomicznym czy zawodowym.

Nawet spekulowano na temat terminów takich jak osobliwość, teoretyczny punkt, w którym maszyna przewyższy człowieka w inteligencji, czy transhumanizm, który fantazjuje o poprawie ludzkich zdolności pod egidą technologii w dążeniu do nieśmiertelności.

Jednak niewiele mówi się o debacie nad moralnością i o tym, jakie zasady etyczne leżą u podstaw sztucznej inteligencji, gdy ktoś taki jak ty lub ja stawia jej pytanie.

Jak powinien się zachować model językowy? Co powinien zrobić? Jak odmówić czemuś? Jak powinien odpowiedzieć?

Ciężar podejmowania decyzji, które wpływają na miliony ludzi

Oczywiście, nikt lepiej niż Sam Altman, twórca ChatGPT, nie jest w stanie odpowiedzieć, jak zachowuje się jego twór i jakie są granice, które zostały wyznaczone lub wyzwania, przed którymi stoi, a nie jest ich mało.

"To trudna kwestia, ponieważ jest wiele osób z różnymi perspektywami życiowymi, ale ogólnie zaskoczyła mnie ogólna zdolność modelu do nauki i zastosowania ram moralnych", zapewnia w wywiadzie w The Tucker Carlson Show.
Zobacz oryginał
Eksperci zaprzeczają Billowi Gatesowi: sztuczna inteligencja zwiększy obciążenie pracą zamiast je zmniejszyć Bill Gates przewiduje krótsze tygodnie pracy dzięki AI, ale eksperci ostrzegają przed odwrotnym scenariuszem W ciągu ostatnich kilku lat wiele wpływowych postaci ze świata technologii, takich jak Bill Gates, Sam Altman czy Elon Musk, zgodziło się, że sztuczna inteligencja ztransformuje sposób, w jaki ludzie pracują. Gates, w szczególności, zaznaczył, że automatyzacja pozwoli na skrócenie dni roboczych i że ludzie będą mogli poświęcać więcej czasu na swoje osobiste lub kreatywne zainteresowania. Jednakże rosnąca grupa ekspertów nie podziela tego optymizmu. Według tych specjalistów, niedawna historia pokazuje, że wprowadzenie nowych technologii nie zawsze oznacza mniej pracy, ale raczej zwiększenie obciążenia pracą i większe trudności w odłączeniu się. Zamiast uwalniać czas, AI mogłaby podnieść oczekiwania dotyczące produktywności i rozszerzyć granice między pracą a życiem osobistym. Eksperci twierdzą, że sztuczna inteligencja mogłaby powtórzyć ten sam wzór, który zaobserwowano przy nadejściu Internetu, smartfonów czy poczty elektronicznej: narzędzia stworzone w celu ułatwienia życia zawodowego, które jednak skończyły na generowaniu nowych obowiązków i wydłużeniu godzin pracy ponad tradycyjne granice. Mit skróconych dni roboczych Bill Gates wyobraża sobie przyszłość, w której ludzie pracują tylko trzy dni w tygodniu, ufając, że AI przejmie najbardziej powtarzalne lub administracyjne zadania. Jednakże badacze, którzy studiują ewolucję zatrudnienia i technologii, zapewniają, że ten scenariusz jest mało prawdopodobny. Według ich analizy, wprowadzenie systemów automatyzacji zazwyczaj idzie w parze ze wzrostem oczekiwań dotyczących wydajności.
Eksperci zaprzeczają Billowi Gatesowi: sztuczna inteligencja zwiększy obciążenie pracą zamiast je zmniejszyć
Bill Gates przewiduje krótsze tygodnie pracy dzięki AI, ale eksperci ostrzegają przed odwrotnym scenariuszem

W ciągu ostatnich kilku lat wiele wpływowych postaci ze świata technologii, takich jak Bill Gates, Sam Altman czy Elon Musk, zgodziło się, że sztuczna inteligencja ztransformuje sposób, w jaki ludzie pracują.

Gates, w szczególności, zaznaczył, że automatyzacja pozwoli na skrócenie dni roboczych i że ludzie będą mogli poświęcać więcej czasu na swoje osobiste lub kreatywne zainteresowania.

Jednakże rosnąca grupa ekspertów nie podziela tego optymizmu.

Według tych specjalistów, niedawna historia pokazuje, że wprowadzenie nowych technologii nie zawsze oznacza mniej pracy, ale raczej zwiększenie obciążenia pracą i większe trudności w odłączeniu się.

Zamiast uwalniać czas, AI mogłaby podnieść oczekiwania dotyczące produktywności i rozszerzyć granice między pracą a życiem osobistym.

Eksperci twierdzą, że sztuczna inteligencja mogłaby powtórzyć ten sam wzór, który zaobserwowano przy nadejściu Internetu, smartfonów czy poczty elektronicznej: narzędzia stworzone w celu ułatwienia życia zawodowego, które jednak skończyły na generowaniu nowych obowiązków i wydłużeniu godzin pracy ponad tradycyjne granice.

Mit skróconych dni roboczych

Bill Gates wyobraża sobie przyszłość, w której ludzie pracują tylko trzy dni w tygodniu, ufając, że AI przejmie najbardziej powtarzalne lub administracyjne zadania.

Jednakże badacze, którzy studiują ewolucję zatrudnienia i technologii, zapewniają, że ten scenariusz jest mało prawdopodobny.

Według ich analizy, wprowadzenie systemów automatyzacji zazwyczaj idzie w parze ze wzrostem oczekiwań dotyczących wydajności.
Zobacz oryginał
Pożegnanie z 'influencerami': Sam Altman, twórca ChatGPT, uważa, że mogą zniknąć, jeśli sztuczna inteligencja będzie dobra w tworzeniu treści. Nie ma znaczenia, co wielu może myśleć: Sam Altman, dyrektor generalny OpenAI, mówi, że wierzy, że ChatGPT zmierza do tego, aby prowadzić więcej rozmów dziennie niż wszyscy ludzie razem wzięci. ChatGPT zadebiutował w listopadzie 2022 roku i szybko stał się najszybciej rozwijającym się produktem technologicznym w historii. Teraz Sam Altman jest głęboko zaangażowany w projekt Sora, swoją nową aplikację do krótkich filmów z wykorzystaniem sztucznej inteligencji, która obiecuje zrewolucjonizować świat audiowizualny wszechświata 3.0. Narzędzie, które pozwala dać upust swojej wyobraźni, z dowolną postacią w różnorodnych sceneriach; ale także wpływać na zbiorowość: twórców treści ludzkich. Innowacje aplikacji są niezwykłe, ale także jej nieskończone możliwości, które stawiają w trudnej sytuacji obecnych influencerów i youtuberów. Takie wnioski wyciągnął sam Altman podczas wywiadu obok Billa Peeblesa, odpowiedzialnego za projekt Sora, twierdząc, że „ludziom nie obchodzi, czy treść została wygenerowana przez człowieka, czy przez sztuczną inteligencję”, pod warunkiem, że jest oryginalna i wysokiej jakości. Według dyrektora OpenAI, to, czego naprawdę szukają widzowie, to „dobre, oryginalne, refleksyjne, nowe i użyteczne treści”, bez względu na ich pochodzenie. W swojej wypowiedzi w programie cyfrowym TBPN, Altman wyjaśnił, że przyszłość komunikacji wizualnej będzie opierać się na współpracy między ludźmi a technologią, nieuchronnie. $BTC
Pożegnanie z 'influencerami': Sam Altman, twórca ChatGPT, uważa, że mogą zniknąć, jeśli sztuczna inteligencja będzie dobra w tworzeniu treści.

Nie ma znaczenia, co wielu może myśleć: Sam Altman, dyrektor generalny OpenAI, mówi, że wierzy, że ChatGPT zmierza do tego, aby prowadzić więcej rozmów dziennie niż wszyscy ludzie razem wzięci.

ChatGPT zadebiutował w listopadzie 2022 roku i szybko stał się najszybciej rozwijającym się produktem technologicznym w historii.

Teraz Sam Altman jest głęboko zaangażowany w projekt Sora, swoją nową aplikację do krótkich filmów z wykorzystaniem sztucznej inteligencji, która obiecuje zrewolucjonizować świat audiowizualny wszechświata 3.0.

Narzędzie, które pozwala dać upust swojej wyobraźni, z dowolną postacią w różnorodnych sceneriach; ale także wpływać na zbiorowość: twórców treści ludzkich.

Innowacje aplikacji są niezwykłe, ale także jej nieskończone możliwości, które stawiają w trudnej sytuacji obecnych influencerów i youtuberów.

Takie wnioski wyciągnął sam Altman podczas wywiadu obok Billa Peeblesa, odpowiedzialnego za projekt Sora, twierdząc, że „ludziom nie obchodzi, czy treść została wygenerowana przez człowieka, czy przez sztuczną inteligencję”, pod warunkiem, że jest oryginalna i wysokiej jakości.

Według dyrektora OpenAI, to, czego naprawdę szukają widzowie, to „dobre, oryginalne, refleksyjne, nowe i użyteczne treści”, bez względu na ich pochodzenie.

W swojej wypowiedzi w programie cyfrowym TBPN, Altman wyjaśnił, że przyszłość komunikacji wizualnej będzie opierać się na współpracy między ludźmi a technologią, nieuchronnie.
$BTC
Zobacz oryginał
Informacja, to światło, bez którego mądrość nie może widzieć, ale także cień, który w swoim nadmiarze oślepia nas i uniemożliwia znalezienie prawdziwej wiedzy. Wydaje się być niezbędnym warunkiem osiągnięcia mądrości, tak jak światło jest niezbędne do widzenia; podobnie jak gęsty cień, nadmiar danych bez kontekstu lub znaczenia może być szkodliwy, przytłaczając nas i utrudniając głębokie zrozumienie. Odbija ideę, że posiadanie wielu danych nie równa się posiadaniu zrozumienia, a tym bardziej mądrości; wyzwaniem jest rozróżnienie i uporządkowanie informacji, aby przekształciły się w znaczącą wiedzę.
Informacja, to światło, bez którego mądrość nie może widzieć, ale także cień, który w swoim nadmiarze oślepia nas i uniemożliwia znalezienie prawdziwej wiedzy.

Wydaje się być niezbędnym warunkiem osiągnięcia mądrości, tak jak światło jest niezbędne do widzenia; podobnie jak gęsty cień, nadmiar danych bez kontekstu lub znaczenia może być szkodliwy, przytłaczając nas i utrudniając głębokie zrozumienie.

Odbija ideę, że posiadanie wielu danych nie równa się posiadaniu zrozumienia, a tym bardziej mądrości; wyzwaniem jest rozróżnienie i uporządkowanie informacji, aby przekształciły się w znaczącą wiedzę.
Zobacz oryginał
Możliwe, że mamy bańkę sztucznej inteligencji, ale to "dobra bańka", bronią inwestorzy i, oczywiście, założyciele startupów Logika podpowiada nam, że firmy, które konsekwentnie tracą pieniądze, powinny mieć czarną przyszłość. To, co dzieje się w świecie sztucznej inteligencji, jest wręcz odwrotnością, a obecnie dziesięć startupów w bardzo czerwonych liczbach osiągnęło w ciągu roku coś niezwykłego: w ciągu roku zwiększyły swoją wycenę o bilion dolarów. To coś po prostu niezwykłego... i niepokojącego. Trzy wielkie. OpenAI jest z pewnością głównym bohaterem tej wyselekcjonowanej grupy, a obecnie szacuje się, że jej wycena wynosi pół biliona dolarów. Firma Elona Muska, xAI, jest wyceniana na 200.000 milionów, podczas gdy Anthropic także zbliża się do tej kwoty według badania Financial Times. A ich bezpośrednie naśladowczynie. Databricks, która została założona w 2013 roku, szybko dołączyła do tego segmentu i teraz ma szacowaną wycenę 100.000 milionów dolarów. Figure (robotyka), SSI (startup Sutskever), Scale AI, Perplexity, Thinking Machine Lab (startup Miri Murati) czy Cursor dopełniają ten zestaw nowego typu startupów (niemal wszystkie) i z wycenami w górę. Gorączka inwestycyjna. Ten wzrost w ich wycenie jest, jakże by inaczej, wynikiem tego, że wszystkie te firmy pozyskały wielomilionowe rundy inwestycyjne od firm, które wierzą w przyszłość pełną sztucznej inteligencji. Faktycznie, firmy kapitałowe i inwestycyjne w USA wstrzyknęły 161.000 milionów dolarów w ciągu tego roku, i zrobiły to, nie mając nawet przedsmaku tego, że ich zakład ma szansę na wygraną. Wszystkie te firmy zajmujące się sztuczną inteligencją spalają pieniądze, jakby nie było jutra, a ich rentowność i przyszłość są absolutną niewiadomą. Bańki są dobre. "Oczywiście, że istnieje bańka [sztucznej inteligencji]". Kto to mówi? Hermant Taneja, prezydent firmy kapitałowej General Catalyst.
Możliwe, że mamy bańkę sztucznej inteligencji, ale to "dobra bańka", bronią inwestorzy i, oczywiście, założyciele startupów

Logika podpowiada nam, że firmy, które konsekwentnie tracą pieniądze, powinny mieć czarną przyszłość.

To, co dzieje się w świecie sztucznej inteligencji, jest wręcz odwrotnością, a obecnie dziesięć startupów w bardzo czerwonych liczbach osiągnęło w ciągu roku coś niezwykłego: w ciągu roku zwiększyły swoją wycenę o bilion dolarów. To coś po prostu niezwykłego... i niepokojącego.

Trzy wielkie. OpenAI jest z pewnością głównym bohaterem tej wyselekcjonowanej grupy, a obecnie szacuje się, że jej wycena wynosi pół biliona dolarów.

Firma Elona Muska, xAI, jest wyceniana na 200.000 milionów, podczas gdy Anthropic także zbliża się do tej kwoty według badania Financial Times.

A ich bezpośrednie naśladowczynie. Databricks, która została założona w 2013 roku, szybko dołączyła do tego segmentu i teraz ma szacowaną wycenę 100.000 milionów dolarów. Figure (robotyka), SSI (startup Sutskever), Scale AI, Perplexity, Thinking Machine Lab (startup Miri Murati) czy Cursor dopełniają ten zestaw nowego typu startupów (niemal wszystkie) i z wycenami w górę.

Gorączka inwestycyjna.

Ten wzrost w ich wycenie jest, jakże by inaczej, wynikiem tego, że wszystkie te firmy pozyskały wielomilionowe rundy inwestycyjne od firm, które wierzą w przyszłość pełną sztucznej inteligencji.

Faktycznie, firmy kapitałowe i inwestycyjne w USA wstrzyknęły 161.000 milionów dolarów w ciągu tego roku, i zrobiły to, nie mając nawet przedsmaku tego, że ich zakład ma szansę na wygraną.

Wszystkie te firmy zajmujące się sztuczną inteligencją spalają pieniądze, jakby nie było jutra, a ich rentowność i przyszłość są absolutną niewiadomą.

Bańki są dobre. "Oczywiście, że istnieje bańka [sztucznej inteligencji]". Kto to mówi? Hermant Taneja, prezydent firmy kapitałowej General Catalyst.
Zobacz oryginał
Nowe umowy dotyczące chipów OpenAI stawiają trudne pytanie: Skąd weźmie się cała energia? Producent ChatGPT podpisał wielomilionową umowę współpracy z AMD na wdrożenie 6 gigawatów chipów sztucznej inteligencji od firmy półprzewodnikowej. W zeszłym tygodniu OpenAI i projektant chipów Nvidia ogłosili umowę na 10 gigawatów mocy obliczeniowej. OpenAI zadeklarował, że pilnie potrzebuje dostępu do większej mocy obliczeniowej, aby zrealizować swoją ambitną strategię wzrostu, ale ostatnie umowy dotyczące chipów wygenerowały inną kluczową potrzebę: więcej energii. W Stanach Zjednoczonych wyścig o AI napiął sieć energetyczną do prawie punktu załamania. Firmy użyteczności publicznej informują, że potrzebne będzie około 60 gigawatów nowej energii, co odpowiada zużyciu sześciu dużych miast, do końca tej dekady. Firmy energetyczne mogą potrzebować lat na zaplanowanie i przeprowadzenie niezbędnych przesłuchań regulacyjnych, aby uruchomić nowe infrastruktury. Wobec szybkiego tempa ogłaszania nowych chipów, eksperci twierdzą, że coraz bardziej konieczne staje się, aby centra danych zrezygnowały z firm użyteczności publicznej i zaczęły dostarczać własną energię. "Sektor ogólnie wie od lat, że zbliżamy się do granic możliwości sieci", zauważa Sean Farney, wiceprezydent strategii centrów danych dla Ameryki w Jones Lang Lasalle. "Aby wygrać w tej grze, muszą być innowacyjni i wprowadzać te rozwiązania autogeneracji". OpenAI już dostarcza energię do swojego centrum danych w Abilene (Teksas), które jest częścią projektu Stargate, poprzez znajdującą się na miejscu elektrownię gazu ziemnego. Elon Musk dostarcza energię do centrum danych xAI w Memphis za pomocą mobilnych turbin gazowych i kupił obiekty po byłej elektrowni gazowej w Missisipi.
Nowe umowy dotyczące chipów OpenAI stawiają trudne pytanie: Skąd weźmie się cała energia?

Producent ChatGPT podpisał wielomilionową umowę współpracy z AMD na wdrożenie 6 gigawatów chipów sztucznej inteligencji od firmy półprzewodnikowej.

W zeszłym tygodniu OpenAI i projektant chipów Nvidia ogłosili umowę na 10 gigawatów mocy obliczeniowej.

OpenAI zadeklarował, że pilnie potrzebuje dostępu do większej mocy obliczeniowej, aby zrealizować swoją ambitną strategię wzrostu, ale ostatnie umowy dotyczące chipów wygenerowały inną kluczową potrzebę: więcej energii.

W Stanach Zjednoczonych wyścig o AI napiął sieć energetyczną do prawie punktu załamania.

Firmy użyteczności publicznej informują, że potrzebne będzie około 60 gigawatów nowej energii, co odpowiada zużyciu sześciu dużych miast, do końca tej dekady.

Firmy energetyczne mogą potrzebować lat na zaplanowanie i przeprowadzenie niezbędnych przesłuchań regulacyjnych, aby uruchomić nowe infrastruktury.

Wobec szybkiego tempa ogłaszania nowych chipów, eksperci twierdzą, że coraz bardziej konieczne staje się, aby centra danych zrezygnowały z firm użyteczności publicznej i zaczęły dostarczać własną energię.

"Sektor ogólnie wie od lat, że zbliżamy się do granic możliwości sieci", zauważa Sean Farney, wiceprezydent strategii centrów danych dla Ameryki w Jones Lang Lasalle.

"Aby wygrać w tej grze, muszą być innowacyjni i wprowadzać te rozwiązania autogeneracji".

OpenAI już dostarcza energię do swojego centrum danych w Abilene (Teksas), które jest częścią projektu Stargate, poprzez znajdującą się na miejscu elektrownię gazu ziemnego.

Elon Musk dostarcza energię do centrum danych xAI w Memphis za pomocą mobilnych turbin gazowych i kupił obiekty po byłej elektrowni gazowej w Missisipi.
Zobacz oryginał
Sam Altman (40), twórca ChatGPT, o przyszłości sztucznej inteligencji: "Edukacja naszych dzieci będzie bardzo różna, uniwersytet nie będzie opcją dla wielu ludzi" W ostatnich czasach jest oczywiste, że sztuczna inteligencja stała się tematem powracającym w debatach. Obawy dotyczące tego, jak wpłynie na nasze życie, teraz, gdy zaczyna być 'prawdziwym zagrożeniem', sprawiają, że wszyscy starają się przewidzieć jej możliwe konsekwencje i spekulują na temat tego, w jaki sposób ta technologia ukształtuje nasze otoczenie w nadchodzących latach. Jej wdrożenie, etyczne zarządzanie danymi i prywatnością, przejrzystość i stronniczość algorytmiczna, cyberbezpieczeństwo, wpływ na rynek pracy, potrzeba wykwalifikowanych talentów, legislacja, brak infrastruktury czy sam kontrola możliwości sztucznej inteligencji przez człowieka to kwestie, które budzą ogromne zaniepokojenie. Edukacja w erze sztucznej inteligencji Jednakże, pomimo znaczenia wszystkich tych tematów, nie mniej prawdą jest, że powinniśmy również martwić się o tych, którzy odziedziczą tę technologię w jej maksymalnym rozkwicie. Co z nowymi pokoleniami? Czy dzieci są gotowe do jazdy na grzbiecie SI? Jak to na nie wpłynie? "Nie martwię się o dzieci, martwię się o rodziców". Tak stanowczo i szczerze przedstawia się Sam Altman, twórca ChatGPT i CEO OpenAI, w tym minionym weekendzie, podcaście prowadzonym przez Theo Vona. "Jeśli spojrzysz na historię świata, kiedy pojawia się nowa technologia, ludzie, którzy dorastają z nią, zawsze wiedzą, co robić i jak się dostosować. Ale jeśli masz 50 lat, nauka robienia rzeczy w zupełnie inny sposób niż jesteś przyzwyczajony, nie zawsze działa". I jako przykład, dzieli się dwoma odkrywczymi przykładami, które podsumowują znaczenie bycia cyfrowym tubylcem w radzeniu sobie ze zmianami technologicznymi. "Nasze pokolenie nie dorastało bez komputerów. Może dla nas były one czymś nowym w danym momencie, ale zawsze były obecne"
Sam Altman (40), twórca ChatGPT, o przyszłości sztucznej inteligencji: "Edukacja naszych dzieci będzie bardzo różna, uniwersytet nie będzie opcją dla wielu ludzi"

W ostatnich czasach jest oczywiste, że sztuczna inteligencja stała się tematem powracającym w debatach.

Obawy dotyczące tego, jak wpłynie na nasze życie, teraz, gdy zaczyna być 'prawdziwym zagrożeniem', sprawiają, że wszyscy starają się przewidzieć jej możliwe konsekwencje i spekulują na temat tego, w jaki sposób ta technologia ukształtuje nasze otoczenie w nadchodzących latach.

Jej wdrożenie, etyczne zarządzanie danymi i prywatnością, przejrzystość i stronniczość algorytmiczna, cyberbezpieczeństwo, wpływ na rynek pracy, potrzeba wykwalifikowanych talentów, legislacja, brak infrastruktury czy sam kontrola możliwości sztucznej inteligencji przez człowieka to kwestie, które budzą ogromne zaniepokojenie.

Edukacja w erze sztucznej inteligencji

Jednakże, pomimo znaczenia wszystkich tych tematów, nie mniej prawdą jest, że powinniśmy również martwić się o tych, którzy odziedziczą tę technologię w jej maksymalnym rozkwicie.

Co z nowymi pokoleniami? Czy dzieci są gotowe do jazdy na grzbiecie SI? Jak to na nie wpłynie?

"Nie martwię się o dzieci, martwię się o rodziców". Tak stanowczo i szczerze przedstawia się Sam Altman, twórca ChatGPT i CEO OpenAI, w tym minionym weekendzie, podcaście prowadzonym przez Theo Vona.

"Jeśli spojrzysz na historię świata, kiedy pojawia się nowa technologia, ludzie, którzy dorastają z nią, zawsze wiedzą, co robić i jak się dostosować.

Ale jeśli masz 50 lat, nauka robienia rzeczy w zupełnie inny sposób niż jesteś przyzwyczajony, nie zawsze działa".

I jako przykład, dzieli się dwoma odkrywczymi przykładami, które podsumowują znaczenie bycia cyfrowym tubylcem w radzeniu sobie ze zmianami technologicznymi.

"Nasze pokolenie nie dorastało bez komputerów. Może dla nas były one czymś nowym w danym momencie, ale zawsze były obecne"
Zobacz oryginał
Sam Altman, CEO ChatGPT, potwierdza to, czego wszyscy się obawiają w Sora 2: 'Będziemy przeglądać twórców własności intelektualnej' Do tej pory model generacji wideo OpenAI działał w oparciu o politykę dobrowolnego wyłączenia, system, który różnił się od ram prawnych dotyczących praw autorskich. Od pierwszych potknięć generatorów wideo z AI, obawy dotyczące praw autorskich szybko zaczęły się pojawiać. Pomysł, aby móc umieścić Pikachu lub Dartha Vadera w dowolnej scenie za pomocą tylko jednego promptu, stwarzał natychmiastowe ryzyko prawne dla twórców modelu. Dziś, z bardziej zaawansowanymi narzędziami takimi jak Sora 2, dylemat nadal istnieje: postacie, które nie należą do OpenAI, są nadal swobodnie przedstawiane zgodnie z wskazówkami użytkownika. W zeszłym tygodniu Sam Altman, CEO OpenAI, przedstawił podejście dobrowolnego wyłączenia w Sora 2. To pozwala posiadaczom praw zdecydować, czy ich treści mogą być wykorzystywane w generacji wideo. Jak ostrzegał The Hollywood Reporter, nie jest to zwykła dynamika prawa własności intelektualnej. Do tej pory Sora 2 chroniła zachodnią własność intelektualną, ale nie japońską: franczyzy takie jak Pokémon czy Dragon Ball były terenem wolnym. Wraz z aktualizacją Altman potwierdził w blogu, że ta polityka zmienia się w kierunku systemu opcjonalnego, dając twórcom "bardziej szczegółową kontrolę" nad swoimi postaciami. "Otrzymaliśmy komentarze od wielu posiadaczy praw, którzy są bardzo zainteresowani tym nowym rodzajem 'interaktywnej fikcji fanów'. Przyciąga ich pomysł uczestnictwa, które generuje wartość, ale chcą móc decydować, jak używane są ich postacie, nawet całkowicie zabraniając ich użycia", napisał Altman. Za tymi zmianami kryje się również kwestia ekonomiczna: generowanie wideo za pomocą Sora 2 zużywa dużo energii, co zawsze było w centrum debaty na temat sztucznej inteligencji, a intencją jest dzielenie się przychodami z posiadaczami IP, którzy na to pozwolą, tworząc model, który, według Altmana, przynosi korzyści wszystkim stronom.
Sam Altman, CEO ChatGPT, potwierdza to, czego wszyscy się obawiają w Sora 2: 'Będziemy przeglądać twórców własności intelektualnej'

Do tej pory model generacji wideo OpenAI działał w oparciu o politykę dobrowolnego wyłączenia, system, który różnił się od ram prawnych dotyczących praw autorskich.

Od pierwszych potknięć generatorów wideo z AI, obawy dotyczące praw autorskich szybko zaczęły się pojawiać.

Pomysł, aby móc umieścić Pikachu lub Dartha Vadera w dowolnej scenie za pomocą tylko jednego promptu, stwarzał natychmiastowe ryzyko prawne dla twórców modelu.

Dziś, z bardziej zaawansowanymi narzędziami takimi jak Sora 2, dylemat nadal istnieje: postacie, które nie należą do OpenAI, są nadal swobodnie przedstawiane zgodnie z wskazówkami użytkownika.

W zeszłym tygodniu Sam Altman, CEO OpenAI, przedstawił podejście dobrowolnego wyłączenia w Sora 2.

To pozwala posiadaczom praw zdecydować, czy ich treści mogą być wykorzystywane w generacji wideo. Jak ostrzegał The Hollywood Reporter, nie jest to zwykła dynamika prawa własności intelektualnej.

Do tej pory Sora 2 chroniła zachodnią własność intelektualną, ale nie japońską: franczyzy takie jak Pokémon czy Dragon Ball były terenem wolnym.

Wraz z aktualizacją Altman potwierdził w blogu, że ta polityka zmienia się w kierunku systemu opcjonalnego, dając twórcom "bardziej szczegółową kontrolę" nad swoimi postaciami.

"Otrzymaliśmy komentarze od wielu posiadaczy praw, którzy są bardzo zainteresowani tym nowym rodzajem 'interaktywnej fikcji fanów'.

Przyciąga ich pomysł uczestnictwa, które generuje wartość, ale chcą móc decydować, jak używane są ich postacie, nawet całkowicie zabraniając ich użycia", napisał Altman.

Za tymi zmianami kryje się również kwestia ekonomiczna: generowanie wideo za pomocą Sora 2 zużywa dużo energii, co zawsze było w centrum debaty na temat sztucznej inteligencji, a intencją jest dzielenie się przychodami z posiadaczami IP, którzy na to pozwolą, tworząc model, który, według Altmana, przynosi korzyści wszystkim stronom.
Zaloguj się, aby odkryć więcej treści
Poznaj najnowsze wiadomości dotyczące krypto
⚡️ Weź udział w najnowszych dyskusjach na temat krypto
💬 Współpracuj ze swoimi ulubionymi twórcami
👍 Korzystaj z treści, które Cię interesują
E-mail / Numer telefonu

Najnowsze wiadomości

--
Zobacz więcej
Mapa strony
Preferencje dotyczące plików cookie
Regulamin platformy