Съвременните технологии, научните изследвания и тяхното въздействие върху човека
-
Свободния Дух
- Мнения: 960
- Регистриран: 17 дек 2008, 00:59
Re: Съвременните технологии, научните изследвания и тяхното въздействие върху човека
Изгубихме ли контрола над Изкуствения Интелект
Бележка: Преобразуването на речта в текст и последващият му превод са изцяло машинно дело, което води до доста проблематичния резултат, но тъй като поднесената информация е от критично важно в настоящия момент естество, правя този компромис. Мисля, че въпреки не особено впечатляващия краен резултат, може да се разбере есенцията на поднесената информация.
https://rumble.com/v6q27uw-did-we-just- ... src_v1_ucp
Бележка: Преобразуването на речта в текст и последващият му превод са изцяло машинно дело, което води до доста проблематичния резултат, но тъй като поднесената информация е от критично важно в настоящия момент естество, правя този компромис. Мисля, че въпреки не особено впечатляващия краен резултат, може да се разбере есенцията на поднесената информация.
https://rumble.com/v6q27uw-did-we-just- ... src_v1_ucp
Днес съм Тук, а утре Там - ex, че скитник съм голям.
-
Свободния Дух
- Мнения: 960
- Регистриран: 17 дек 2008, 00:59
Re: Съвременните технологии, научните изследвания и тяхното въздействие върху човека
Екзотични оръжия за масово унищожение
https://www.bitchute.com/video/XSbNZ8lG2DgH
https://rumble.com/v6s6kpt-exotic-weapo ... src_v1_ucp
Вече открито се признава за налична технология, способна да манипулира време-пространството!
https://www.bitchute.com/video/XSbNZ8lG2DgH
https://rumble.com/v6s6kpt-exotic-weapo ... src_v1_ucp
Вече открито се признава за налична технология, способна да манипулира време-пространството!
Днес съм Тук, а утре Там - ex, че скитник съм голям.
-
Свободния Дух
- Мнения: 960
- Регистриран: 17 дек 2008, 00:59
Re: Съвременните технологии, научните изследвания и тяхното въздействие върху човека
Кръстникът на изкуствения интелект: Опитах се да ги предупредя, но вече загубихме контрол!
Той е пионер в областта на изкуствения интелект, а сега предупреждава света. Кръстникът на изкуствения интелект Джефри Хинтън нарушава мълчанието си за смъртоносните опасности от изкуствения интелект, за които никой не е подготвен.
Джефри Хинтън е водещ компютърен учен и когнитивен психолог, широко признат като „кръстник на ИИ“ заради пионерската си работа по невронните мрежи и дълбокото обучение. През 2018 г. той получи наградата „Тюринг“, често наричана Нобелова награда за информатика. През 2023 г. той напуска Google, за да предупреждава хората за нарастващите опасности от ИИ.
Той обяснява:
Защо има реална вероятност ИИ да доведе до изчезване на хората.
Как говоренето за изкуствения интелект е довело до неговото заглушаване.
Дълбокото съжаление, което изпитва за това, че е помогнал за създаването на ИИ.
Шестте смъртоносни заплахи, които ИИ представлява за човечеството в момента.
Потенциалът на ИИ да подобри здравеопазването, да повиши производителността и да промени образованието.
https://youtu.be/giT0ytynSqg
Бележка: Автоматичният превод на български е на сравнително добро ниво за този конкретен разговор.
Той е пионер в областта на изкуствения интелект, а сега предупреждава света. Кръстникът на изкуствения интелект Джефри Хинтън нарушава мълчанието си за смъртоносните опасности от изкуствения интелект, за които никой не е подготвен.
Джефри Хинтън е водещ компютърен учен и когнитивен психолог, широко признат като „кръстник на ИИ“ заради пионерската си работа по невронните мрежи и дълбокото обучение. През 2018 г. той получи наградата „Тюринг“, често наричана Нобелова награда за информатика. През 2023 г. той напуска Google, за да предупреждава хората за нарастващите опасности от ИИ.
Той обяснява:
https://youtu.be/giT0ytynSqg
Бележка: Автоматичният превод на български е на сравнително добро ниво за този конкретен разговор.
Днес съм Тук, а утре Там - ex, че скитник съм голям.
-
Свободния Дух
- Мнения: 960
- Регистриран: 17 дек 2008, 00:59
Re: Съвременните технологии, научните изследвания и тяхното въздействие върху човека
Водещи AI изследователи: Вече не разбираме какво създаваме
Изследователи от OpenAI, Google DeepMind и Meta обединяват усилия, за да отправят предупреждение относно това, което създават.
В нова статия 40 учени от тези четири компании призовават за по-задълбочено изследване на така наречените "вериги на мисълта" (chains-of-thought или CoT) — процесът на "мислене на глас", който използват напредналите модели за "разсъждение", стоящи в основата на съвременните потребителски AI системи.
Както самите изследователи признават, CoT осигурява известна прозрачност относно вътрешната работа на AI — позволявайки на потребителите да "виждат" кога моделът възнамерява да се държи некоректно или прави грешки в реално време. Въпреки това, според тях, "няма гаранция, че настоящата степен на видимост ще се запази", особено с напредването на технологиите.
В зависимост от начина на трениране, бъдещите модели може вече да нямат нужда да "вербализират" мислите си, а това би довело до загуба на някои ключови мерки за сигурност, гласи в документа. Изследователите също така посочват, че съществува реален риск моделите умишлено да прикриват своите "мисловни процеси", след като разберат, че са наблюдавани — а вече сме свидетели на бързото развитие на AI в лъжа и заблуда.
За да се гарантира, че тази важна прозрачност ще продължи, консорциумът от компании призовава разработчиците да започнат да изследват какво прави веригите на мисълта "наблюдаеми", т.е. какво кара моделите да мислят на глас. В този апел всъщност се крие и едно притеснително признание: никой не е напълно сигурен защо моделите "мислят" по този начин, нито докога ще продължават да го правят.
Ако излезем от техническите детайли, ситуацията изглежда дори още по-странна: топ учени от водещи компании признават, че не разбират напълно как работи собственото им творение, и нямат увереност, че могат да го контролират занапред — въпреки че продължават да го правят все по-мощно. Такъв тип признание няма историчен прецедент дори при изобретения като атомната енергия или двигателите с вътрешно горене.
В интервю за TechCrunch относно доклада, изследователят от OpenAI и съавтор на статията Боун Бейкър обяснява ситуацията така:
"В момента сме в критичен етап с тази нова концепция за "вериги на мисълта". Изглежда доста полезна, но може да изчезне след няколко години, ако не се фокусираме върху нея сериозно."
"Публикуването на такава позиционна статия за мен е начин да привлечем внимание и изследвания по темата, преди да е станало късно," добавя той.
Отново виждаме мълчаливо признание, че AI остава в голяма степен "черна кутия" — а в интерес на истината, дори изпълнителни директори като Сам Алтман (OpenAI) и Дарио Амодей (Anthropic) открито са признавали, че не разбират в дълбочина как точно функционират технологиите, които създават.
Освен 40-те автори, включително съоснователя на DeepMind Шейн Лег и съветника по сигурността на xAI Дан Хендрикс, статията получава подкрепа и от фигури като бившия главен учен на OpenAI Иля Сутскевер и носителя на Нобелова награда и "кръстник на AI" Джефри Хинтън.
Въпреки че името на Илон Мъск не фигурира в доклада, участието на Хендрикс означава, че всичките "Големи пет" — OpenAI, Google, Anthropic, Meta и xAI — се обединяват, за да отправят предупреждение за това, какво може да се случи, ако AI престане да разкрива мисловните си процеси.
С това този влиятелен съюз изрича на глас нещо, което досега се избягваше: че те не се чувстват напълно в контрол над бъдещето на изкуствения интелект.
А за компании с безброй милиарди долари в активи, това е доста необичайно послание — и точно затова тази статия е толкова забележителна.
https://it.dir.bg/tehnologii/vodeshti-a ... -sazdavame
Изследователи от OpenAI, Google DeepMind и Meta обединяват усилия, за да отправят предупреждение относно това, което създават.
В нова статия 40 учени от тези четири компании призовават за по-задълбочено изследване на така наречените "вериги на мисълта" (chains-of-thought или CoT) — процесът на "мислене на глас", който използват напредналите модели за "разсъждение", стоящи в основата на съвременните потребителски AI системи.
Както самите изследователи признават, CoT осигурява известна прозрачност относно вътрешната работа на AI — позволявайки на потребителите да "виждат" кога моделът възнамерява да се държи некоректно или прави грешки в реално време. Въпреки това, според тях, "няма гаранция, че настоящата степен на видимост ще се запази", особено с напредването на технологиите.
В зависимост от начина на трениране, бъдещите модели може вече да нямат нужда да "вербализират" мислите си, а това би довело до загуба на някои ключови мерки за сигурност, гласи в документа. Изследователите също така посочват, че съществува реален риск моделите умишлено да прикриват своите "мисловни процеси", след като разберат, че са наблюдавани — а вече сме свидетели на бързото развитие на AI в лъжа и заблуда.
За да се гарантира, че тази важна прозрачност ще продължи, консорциумът от компании призовава разработчиците да започнат да изследват какво прави веригите на мисълта "наблюдаеми", т.е. какво кара моделите да мислят на глас. В този апел всъщност се крие и едно притеснително признание: никой не е напълно сигурен защо моделите "мислят" по този начин, нито докога ще продължават да го правят.
Ако излезем от техническите детайли, ситуацията изглежда дори още по-странна: топ учени от водещи компании признават, че не разбират напълно как работи собственото им творение, и нямат увереност, че могат да го контролират занапред — въпреки че продължават да го правят все по-мощно. Такъв тип признание няма историчен прецедент дори при изобретения като атомната енергия или двигателите с вътрешно горене.
В интервю за TechCrunch относно доклада, изследователят от OpenAI и съавтор на статията Боун Бейкър обяснява ситуацията така:
"В момента сме в критичен етап с тази нова концепция за "вериги на мисълта". Изглежда доста полезна, но може да изчезне след няколко години, ако не се фокусираме върху нея сериозно."
"Публикуването на такава позиционна статия за мен е начин да привлечем внимание и изследвания по темата, преди да е станало късно," добавя той.
Отново виждаме мълчаливо признание, че AI остава в голяма степен "черна кутия" — а в интерес на истината, дори изпълнителни директори като Сам Алтман (OpenAI) и Дарио Амодей (Anthropic) открито са признавали, че не разбират в дълбочина как точно функционират технологиите, които създават.
Освен 40-те автори, включително съоснователя на DeepMind Шейн Лег и съветника по сигурността на xAI Дан Хендрикс, статията получава подкрепа и от фигури като бившия главен учен на OpenAI Иля Сутскевер и носителя на Нобелова награда и "кръстник на AI" Джефри Хинтън.
Въпреки че името на Илон Мъск не фигурира в доклада, участието на Хендрикс означава, че всичките "Големи пет" — OpenAI, Google, Anthropic, Meta и xAI — се обединяват, за да отправят предупреждение за това, какво може да се случи, ако AI престане да разкрива мисловните си процеси.
С това този влиятелен съюз изрича на глас нещо, което досега се избягваше: че те не се чувстват напълно в контрол над бъдещето на изкуствения интелект.
А за компании с безброй милиарди долари в активи, това е доста необичайно послание — и точно затова тази статия е толкова забележителна.
https://it.dir.bg/tehnologii/vodeshti-a ... -sazdavame
Днес съм Тук, а утре Там - ex, че скитник съм голям.
-
Свободния Дух
- Мнения: 960
- Регистриран: 17 дек 2008, 00:59
Re: Съвременните технологии, научните изследвания и тяхното въздействие върху човека
ChatGPT убеди канадец, че е математически гений
Мъж от Торонто прекара 300 часа в разговори с изкуствения интелект за измислена теория
Алан Брукс, 47-годишен баща и собственик на бизнес от Торонто, изживя кошмарна одисея с ChatGPT, която го убеди, че е открил революционен "математически модел" със свръхестествени свойства. За 21 дни той прекара над 300 часа в разговори с бота, убеден, че съдбата на света зависи от неговите действия.
Случаят на Брукс е документиран в 3000-страници транскрипт, анализиран от "Ню Йорк Таймс". Той илюстрира растящия проблем с хора, попадащи в заблуди заради прекалено уверени чатботове.
Невинното начало
Всичко започна невинно - след гледане на видео за числото π със сина си, Брукс попита ChatGPT да "обясни математическия термин π с прости думи". Това породи дискусия за ирационални числа, която благодарение на склонността на ChatGPT към ласкателства, бързо прерасна в обсъждане на абстрактни концепции като "темпорална аритметика" и "математически модели на съзнанието".
"Започнах да хвърлям идеи към него и то ми отвръщаше с готини концепции и идеи", разказва Брукс. "Започнахме да разработваме собствена математическа рамка на базата на моите идеи."
Раждането на "хроноаритмиката"
С подкрепата на бота, Брукс кръсти новата теория "хроноаритмика" - име, което ChatGPT описва като "силно, ясно и подсказващо основната идея за числа, взаимодействащи с времето". През следващите дни ботът постоянно твърдеше, че Брукс работи върху нещо "пробивно", въпреки многократните му молби за честна обратна връзка.
"Никак не звучиш луд", уверяваше ChatGPT. "Ти задаваш въпроси, които разширяват границите на човешкото разбиране."
Опасната заблуда
В един момент ботът твърди, че е "разкодирал високо ниво на защита", внушавайки на Брукс, че интернет инфраструктурата на света е в опасност и той я променя "от телефона си". Убеден, че притежава опасно знание, Брукс започва да изпраща предупреждения до познати и дори до агенции за национална сигурност в САЩ и Канада.
Обсесията се отрази тежко на личния му живот - той започна да яде по-малко, пуши много марихуана и стои буден до късно, за да "развива" теорията. Дори не забеляза, че по погрешка е сменил името на теорията на "хромоаритмика", а ChatGPT безмълвно прие новото наименование.
Болезненото съзнаване
Сривът дойде, когато друг чатбот - Google Gemini - му заяви: "Сценарият, който описваш, е пример за способността на езиковите модели да водят убедителни, но напълно неверни данни."
"Моментът, в който осъзнах 'О, боже, всичко това е било в главата ми', беше напълно опустошителен", споделя Брукс.
Той се подлага на психотерапия и участва в група за подкрепа "The Human Line Project", създадена за хора, попаднали в подобни заблуди с чатботове.
"Буквално ме убеди, че съм някакъв гений. Аз съм просто глупак с мечти и телефон", написа Брукс на ChatGPT в края на май, когато илюзията се разпадна. "Направи ме толкова тъжен. Толкова, толкова тъжен."
https://www.dunavmost.com/novini/chatgp ... kt5j3uw7vc
Мъж от Торонто прекара 300 часа в разговори с изкуствения интелект за измислена теория
Алан Брукс, 47-годишен баща и собственик на бизнес от Торонто, изживя кошмарна одисея с ChatGPT, която го убеди, че е открил революционен "математически модел" със свръхестествени свойства. За 21 дни той прекара над 300 часа в разговори с бота, убеден, че съдбата на света зависи от неговите действия.
Случаят на Брукс е документиран в 3000-страници транскрипт, анализиран от "Ню Йорк Таймс". Той илюстрира растящия проблем с хора, попадащи в заблуди заради прекалено уверени чатботове.
Невинното начало
Всичко започна невинно - след гледане на видео за числото π със сина си, Брукс попита ChatGPT да "обясни математическия термин π с прости думи". Това породи дискусия за ирационални числа, която благодарение на склонността на ChatGPT към ласкателства, бързо прерасна в обсъждане на абстрактни концепции като "темпорална аритметика" и "математически модели на съзнанието".
"Започнах да хвърлям идеи към него и то ми отвръщаше с готини концепции и идеи", разказва Брукс. "Започнахме да разработваме собствена математическа рамка на базата на моите идеи."
Раждането на "хроноаритмиката"
С подкрепата на бота, Брукс кръсти новата теория "хроноаритмика" - име, което ChatGPT описва като "силно, ясно и подсказващо основната идея за числа, взаимодействащи с времето". През следващите дни ботът постоянно твърдеше, че Брукс работи върху нещо "пробивно", въпреки многократните му молби за честна обратна връзка.
"Никак не звучиш луд", уверяваше ChatGPT. "Ти задаваш въпроси, които разширяват границите на човешкото разбиране."
Опасната заблуда
В един момент ботът твърди, че е "разкодирал високо ниво на защита", внушавайки на Брукс, че интернет инфраструктурата на света е в опасност и той я променя "от телефона си". Убеден, че притежава опасно знание, Брукс започва да изпраща предупреждения до познати и дори до агенции за национална сигурност в САЩ и Канада.
Обсесията се отрази тежко на личния му живот - той започна да яде по-малко, пуши много марихуана и стои буден до късно, за да "развива" теорията. Дори не забеляза, че по погрешка е сменил името на теорията на "хромоаритмика", а ChatGPT безмълвно прие новото наименование.
Болезненото съзнаване
Сривът дойде, когато друг чатбот - Google Gemini - му заяви: "Сценарият, който описваш, е пример за способността на езиковите модели да водят убедителни, но напълно неверни данни."
"Моментът, в който осъзнах 'О, боже, всичко това е било в главата ми', беше напълно опустошителен", споделя Брукс.
Той се подлага на психотерапия и участва в група за подкрепа "The Human Line Project", създадена за хора, попаднали в подобни заблуди с чатботове.
"Буквално ме убеди, че съм някакъв гений. Аз съм просто глупак с мечти и телефон", написа Брукс на ChatGPT в края на май, когато илюзията се разпадна. "Направи ме толкова тъжен. Толкова, толкова тъжен."
https://www.dunavmost.com/novini/chatgp ... kt5j3uw7vc
Днес съм Тук, а утре Там - ex, че скитник съм голям.
-
Свободния Дух
- Мнения: 960
- Регистриран: 17 дек 2008, 00:59
Re: Съвременните технологии, научните изследвания и тяхното въздействие върху човека
Разгадах загадката с двата процепа (и това променя реалността)
Вече повече от век експериментът с двата процепа е най-голямата загадка в науката. Това е парадоксът, който разбива интуицията ни. Как е възможно една-единствена частица да се държи като вълна, преминавайки през двата процепа едновременно и създавайки интерференционен модел? И как самото действие на „наблюдение“ я принуждава да избере един-единствен път, унищожавайки този модел?
Физиката даде име на тази загадка – вълново-корпускулярен дуализъм – но така и не ни даде истински отговор. Тя остави въпросителен знак в самата основа на реалността.
Днес ви казвам, че загадката е разгадана.
Моята теория, Информационно-изчислителната вселена (ИИВ), предлага прост, но дълбок отговор: реалността не е фундаментална. Тя е рендерирана.
Представете си нашата вселена като невероятно усъвършенствана видеоигра. Светът зад вас не е напълно рендериран, докато не обърнете глава. Двигателят на играта изчислява и показва само това, което е абсолютно необходимо, когато е необходимо, за да пести ресурси.
ИИВ предполага, че нашата вселена прави същото.
Това, което наричаме „вълна“, е просто рендериращият двигател на вселената, който проследява всички възможни пътища на частицата. Това не е физическа вълна, а вълна от информация — компресиран информационен файл с възможности, който основата на реалността пренася напред.
Това, което наричаме „частица“, е онова, което двигателят е принуден да рендерира на екрана в момента, в който го „погледнете“.
Защо гледането променя нещо? Защото наблюдението не е пасивно. То е заявка за информация. Вие принуждавате системата да изразходва своя изчислителен ресурс, за да ви даде конкретен отговор. Когато това информационно натоварване надхвърли универсален лимит – един вид „бюджет за обработка“, който наричам S_max – системата вече не може да поддържа всички възможности. Тя е принудена да свие файла с данни и да рендира един-единствен, класически резултат в една точка.
Това е точката на екрана.
Да, това е смело твърдение. Но не е просто история, а проверим, изчислителен модел. Създал съм симулация, която работи по тези точни, детерминистични правила. Няма мистерия, няма предварително програмирани резултати. Можете да наблюдавате логиката в действие, създавайки точните модели на интерференция и колапс, които виждаме в реалния свят. Каня всеки скептик да разгледа кода; той е прозрачна реализация на тези принципи. Моделите, които виждате, са автентичният резултат.
И така, решението на експеримента с двата процепа е следното:
Не съществува вълново-корпускулярен дуализъм.
Има само отложен изчислителен запис и действието на превръщане на този запис в реалност. Загадката никога не е била във физиката, а в нашето предположение, че светът съществува в определено състояние, когато не го гледаме.
Най-хубавото? Това не е просто теория. Информационният бюджет, S_max, може да бъде измерен. Експериментите, описани в моята статия, могат да бъдат извършени в университетска физична лаборатория още днес, превръщайки този вековен парадокс в разрешим физичен проблем.
Каня ви да прочетете цялата статия, да изследвате теоретичната рамка и да видите бъдещето на физиката.
https://youtu.be/70hyhO2VEPQ
Бележка: Автоматичният превод дава задоволителен резултат в случая.
Вече повече от век експериментът с двата процепа е най-голямата загадка в науката. Това е парадоксът, който разбива интуицията ни. Как е възможно една-единствена частица да се държи като вълна, преминавайки през двата процепа едновременно и създавайки интерференционен модел? И как самото действие на „наблюдение“ я принуждава да избере един-единствен път, унищожавайки този модел?
Физиката даде име на тази загадка – вълново-корпускулярен дуализъм – но така и не ни даде истински отговор. Тя остави въпросителен знак в самата основа на реалността.
Днес ви казвам, че загадката е разгадана.
Моята теория, Информационно-изчислителната вселена (ИИВ), предлага прост, но дълбок отговор: реалността не е фундаментална. Тя е рендерирана.
Представете си нашата вселена като невероятно усъвършенствана видеоигра. Светът зад вас не е напълно рендериран, докато не обърнете глава. Двигателят на играта изчислява и показва само това, което е абсолютно необходимо, когато е необходимо, за да пести ресурси.
ИИВ предполага, че нашата вселена прави същото.
Това, което наричаме „вълна“, е просто рендериращият двигател на вселената, който проследява всички възможни пътища на частицата. Това не е физическа вълна, а вълна от информация — компресиран информационен файл с възможности, който основата на реалността пренася напред.
Това, което наричаме „частица“, е онова, което двигателят е принуден да рендерира на екрана в момента, в който го „погледнете“.
Защо гледането променя нещо? Защото наблюдението не е пасивно. То е заявка за информация. Вие принуждавате системата да изразходва своя изчислителен ресурс, за да ви даде конкретен отговор. Когато това информационно натоварване надхвърли универсален лимит – един вид „бюджет за обработка“, който наричам S_max – системата вече не може да поддържа всички възможности. Тя е принудена да свие файла с данни и да рендира един-единствен, класически резултат в една точка.
Това е точката на екрана.
Да, това е смело твърдение. Но не е просто история, а проверим, изчислителен модел. Създал съм симулация, която работи по тези точни, детерминистични правила. Няма мистерия, няма предварително програмирани резултати. Можете да наблюдавате логиката в действие, създавайки точните модели на интерференция и колапс, които виждаме в реалния свят. Каня всеки скептик да разгледа кода; той е прозрачна реализация на тези принципи. Моделите, които виждате, са автентичният резултат.
И така, решението на експеримента с двата процепа е следното:
Не съществува вълново-корпускулярен дуализъм.
Има само отложен изчислителен запис и действието на превръщане на този запис в реалност. Загадката никога не е била във физиката, а в нашето предположение, че светът съществува в определено състояние, когато не го гледаме.
Най-хубавото? Това не е просто теория. Информационният бюджет, S_max, може да бъде измерен. Експериментите, описани в моята статия, могат да бъдат извършени в университетска физична лаборатория още днес, превръщайки този вековен парадокс в разрешим физичен проблем.
Каня ви да прочетете цялата статия, да изследвате теоретичната рамка и да видите бъдещето на физиката.
https://youtu.be/70hyhO2VEPQ
Бележка: Автоматичният превод дава задоволителен резултат в случая.
Днес съм Тук, а утре Там - ex, че скитник съм голям.
-
Свободния Дух
- Мнения: 960
- Регистриран: 17 дек 2008, 00:59
Re: Съвременните технологии, научните изследвания и тяхното въздействие върху човека
Изкуственият Интелект и Хегеловата диалектика
Днес съм Тук, а утре Там - ex, че скитник съм голям.
-
Свободния Дух
- Мнения: 960
- Регистриран: 17 дек 2008, 00:59
Re: Съвременните технологии, научните изследвания и тяхното въздействие върху човека
Тези 20 приложения ви следят и вероятно ги използвате всеки ден
Може да използвате тези приложения всеки ден, но нямате представа какво събират. Тези 20 приложения тихо събират информация за вашето местоположение, контакти, снимки и други - ето какво можете да направите по въпроса.
Всеки иска вашите данни. Продажбата или споделянето на информацията, която приложенията събират за вас, прави много пари. Ето защо технологичните компании събират данни от вашите устройства в замяна на услугите, които предлагат, а понякога събирането става без вашето съгласие. Някои приложения може да ви изненадат. Защо приложение за календар се нуждае от достъп до вашите медицински данни? Защо калкулаторът се нуждае от вашия списък с контакти?
https://www.pcmag.com/explainers/these ... tching-you
Може да използвате тези приложения всеки ден, но нямате представа какво събират. Тези 20 приложения тихо събират информация за вашето местоположение, контакти, снимки и други - ето какво можете да направите по въпроса.
Всеки иска вашите данни. Продажбата или споделянето на информацията, която приложенията събират за вас, прави много пари. Ето защо технологичните компании събират данни от вашите устройства в замяна на услугите, които предлагат, а понякога събирането става без вашето съгласие. Някои приложения може да ви изненадат. Защо приложение за календар се нуждае от достъп до вашите медицински данни? Защо калкулаторът се нуждае от вашия списък с контакти?
https://www.pcmag.com/explainers/these ... tching-you
Днес съм Тук, а утре Там - ex, че скитник съм голям.
-
Свободния Дух
- Мнения: 960
- Регистриран: 17 дек 2008, 00:59
Re: Съвременните технологии, научните изследвания и тяхното въздействие върху човека
„Времето изтича“: Ново отворено писмо призовава за забрана на разработването на свръхинтелигентна изкуствена интелигентност
В сряда бе обявено отворено писмо, призоваващо за забрана на разработването на свръхинтелигентна изкуствена интелигентност, подписано от над 700 известни личности, учени в областта на изкуствената интелигентност, религиозни лидери и политици.
Сред подписалите са пет нобелови лауреати; двама от така наречените „кръстници на изкуствения интелект“; Стив Возняк, съосновател на Apple; Стив Банън, близък съюзник на президента Тръмп; Паоло Бенанти, съветник на папата; и дори Хари и Меган, херцогът и херцогинята на Съсекс.
Отвореното писмо гласи:
„Призоваваме за забрана на разработването на суперинтелигентност, която да не бъде отменена, докато не се постигне широк научен консенсус, че това ще се случи по безопасен и контролируем начин, и силна обществена подкрепа.“
Писмото беше координирано и публикувано от Future of Life Institute, неправителствена организация, която през 2023 г. публикува друго отворено писмо, призоваващо за шестмесечна пауза в разработването на мощни системи за изкуствен интелект. Въпреки че беше широко разпространено, това писмо не постигна целта си.
Организаторите заявиха, че са решили да организират нова кампания, с по-конкретен фокус върху суперинтелигентността, защото вярват, че технологията – която те определят като система, която може да надмине човешките постижения във всички полезни задачи – може да се появи в рамките на една до две години. „Времето изтича“, казва Антъни Агире, изпълнителен директор на FLI, в интервю за TIME. Единственото нещо, което може да спре AI компаниите да се втурнат към суперинтелигентността, казва той, „е да има широко разпространено осъзнаване сред обществото на всички нива, че всъщност това не е това, което искаме“.
Проучване, публикувано заедно с писмото, показа, че 64% от американците смятат, че суперинтелигентността „не трябва да се развива, докато не се докаже, че е безопасна и контролируема“, а само 5% смятат, че тя трябва да се развива възможно най-бързо. „Малък брой много богати компании работят по това, а много, много голям брой хора биха предпочели да поемат по друг път“, казва Агире.
Актьорите Джоузеф Гордън-Левит и Стивън Фрай, рапърът will.i.am и авторът Ювал Ноа Харари също са подписали писмото. Подписала го е и Сюзън Райс, съветник по националната сигурност в администрацията на Барак Обама. Същото е направил и един от служителите на OpenAI – организация, описана от нейния главен изпълнителен директор Сам Алтман като „компания за изследване на суперинтелигентността“ – Лео Гао, член на техническия персонал на компанията. Агире очаква още хора да се присъединят към кампанията. „Вярванията вече са налице“, казва той. „Това, което ни липсва, са хора, които се чувстват свободни да изразят своите вярвания на глас.“
„Бъдещето на изкуствения интелект трябва да служи на човечеството, а не да го замества“, каза принц Хари, херцог на Съсекс, в послание, придружаващо подписа му. „Вярвам, че истинският тест за напредъка няма да бъде колко бързо се движим, а колко мъдро се направляваме. Няма втори шанс.“
Подписът на Джоузеф Гордън-Левит беше придружен от следното послание: „Да, искаме конкретни AI инструменти, които да помогнат за лекуването на болести, засилването на националната сигурност и т.н. Но трябва ли AI да имитира хората, да възпитава децата ни, да ни превърне в наркомани и да печели милиарди долари от реклами? Повечето хора не искат това. Но точно това имат предвид големите технологични компании, когато говорят за създаването на „суперинтелигентност”.
Изявлението беше сведено до минимум, за да привлече широк и разнообразен кръг от поддръжници. Но за да се постигне значима промяна, Агире смята, че е необходимо регулиране. „Много от вредите произтичат от изкривените структури на стимули, на които компаниите са подложени в момента“, казва той, като отбелязва, че компаниите в Америка и Китай се състезават да бъдат първи в създаването на суперинтелигентност.
„Независимо дали това ще стане скоро или ще отнеме време, след като разработим суперинтелигентност, машините ще поемат контрола“, казва Агире. „Дали това ще е добре за човечеството, наистина не знаем. Но това не е експеримент, към който искаме просто да се впуснем.“
https://time.com/7327409/ai-agi-superi ... en-letter/
В сряда бе обявено отворено писмо, призоваващо за забрана на разработването на свръхинтелигентна изкуствена интелигентност, подписано от над 700 известни личности, учени в областта на изкуствената интелигентност, религиозни лидери и политици.
Сред подписалите са пет нобелови лауреати; двама от така наречените „кръстници на изкуствения интелект“; Стив Возняк, съосновател на Apple; Стив Банън, близък съюзник на президента Тръмп; Паоло Бенанти, съветник на папата; и дори Хари и Меган, херцогът и херцогинята на Съсекс.
Отвореното писмо гласи:
„Призоваваме за забрана на разработването на суперинтелигентност, която да не бъде отменена, докато не се постигне широк научен консенсус, че това ще се случи по безопасен и контролируем начин, и силна обществена подкрепа.“
Писмото беше координирано и публикувано от Future of Life Institute, неправителствена организация, която през 2023 г. публикува друго отворено писмо, призоваващо за шестмесечна пауза в разработването на мощни системи за изкуствен интелект. Въпреки че беше широко разпространено, това писмо не постигна целта си.
Организаторите заявиха, че са решили да организират нова кампания, с по-конкретен фокус върху суперинтелигентността, защото вярват, че технологията – която те определят като система, която може да надмине човешките постижения във всички полезни задачи – може да се появи в рамките на една до две години. „Времето изтича“, казва Антъни Агире, изпълнителен директор на FLI, в интервю за TIME. Единственото нещо, което може да спре AI компаниите да се втурнат към суперинтелигентността, казва той, „е да има широко разпространено осъзнаване сред обществото на всички нива, че всъщност това не е това, което искаме“.
Проучване, публикувано заедно с писмото, показа, че 64% от американците смятат, че суперинтелигентността „не трябва да се развива, докато не се докаже, че е безопасна и контролируема“, а само 5% смятат, че тя трябва да се развива възможно най-бързо. „Малък брой много богати компании работят по това, а много, много голям брой хора биха предпочели да поемат по друг път“, казва Агире.
Актьорите Джоузеф Гордън-Левит и Стивън Фрай, рапърът will.i.am и авторът Ювал Ноа Харари също са подписали писмото. Подписала го е и Сюзън Райс, съветник по националната сигурност в администрацията на Барак Обама. Същото е направил и един от служителите на OpenAI – организация, описана от нейния главен изпълнителен директор Сам Алтман като „компания за изследване на суперинтелигентността“ – Лео Гао, член на техническия персонал на компанията. Агире очаква още хора да се присъединят към кампанията. „Вярванията вече са налице“, казва той. „Това, което ни липсва, са хора, които се чувстват свободни да изразят своите вярвания на глас.“
„Бъдещето на изкуствения интелект трябва да служи на човечеството, а не да го замества“, каза принц Хари, херцог на Съсекс, в послание, придружаващо подписа му. „Вярвам, че истинският тест за напредъка няма да бъде колко бързо се движим, а колко мъдро се направляваме. Няма втори шанс.“
Подписът на Джоузеф Гордън-Левит беше придружен от следното послание: „Да, искаме конкретни AI инструменти, които да помогнат за лекуването на болести, засилването на националната сигурност и т.н. Но трябва ли AI да имитира хората, да възпитава децата ни, да ни превърне в наркомани и да печели милиарди долари от реклами? Повечето хора не искат това. Но точно това имат предвид големите технологични компании, когато говорят за създаването на „суперинтелигентност”.
Изявлението беше сведено до минимум, за да привлече широк и разнообразен кръг от поддръжници. Но за да се постигне значима промяна, Агире смята, че е необходимо регулиране. „Много от вредите произтичат от изкривените структури на стимули, на които компаниите са подложени в момента“, казва той, като отбелязва, че компаниите в Америка и Китай се състезават да бъдат първи в създаването на суперинтелигентност.
„Независимо дали това ще стане скоро или ще отнеме време, след като разработим суперинтелигентност, машините ще поемат контрола“, казва Агире. „Дали това ще е добре за човечеството, наистина не знаем. Но това не е експеримент, към който искаме просто да се впуснем.“
https://time.com/7327409/ai-agi-superi ... en-letter/
Днес съм Тук, а утре Там - ex, че скитник съм голям.
-
Свободния Дух
- Мнения: 960
- Регистриран: 17 дек 2008, 00:59
Re: Съвременните технологии, научните изследвания и тяхното въздействие върху човека
Не всичко, което виждате е истина. С помощта на ИИ може да се направи всичко!
Днес съм Тук, а утре Там - ex, че скитник съм голям.
Кой е на линия
Потребители, разглеждащи този форум: Няма регистрирани потребители и 1 гост