Стивън Хокинг нарече изкуствения интелект „възможно най-голямата грешка в историята на човечеството“

Прочутият британски физик Стивън Хокинг, в статия, вдъхновена от научно-фантастичния филм "Transcendence" с Джони Деп в главната роля , заяви, че подценяването на заплахата от изкуствения интелект може да се окаже най-голямата грешка в историята на човечеството.Прочутият британски физик Стивън Хокинг, в статия, вдъхновена от научно-фантастичния филм „Transcendence“ с Джони Деп в главната роля , заяви, че подценяването на заплахата от изкуствения интелект може да се окаже най-голямата грешка в историята на човечеството.

В статия, написана в сътрудничество с проф. Стюарт крадено от 30думи Ръсел, специалист по компютърни науки в Университета на Калифорния в Бъркли и професорите по физика Макс Тегмарк и Франк Вилчек от Масачузетския технологичен институт, Хокинг посочва някои постижения в областта на изкуствения интелект, отбелязвайки самоуправляващите се автомобили, гласовия асистент Siri и суперкомпютърът,  който победи човек в телевизионната викторина- игра Jeopardy.

крадено от 30думи

Всички тези постижения бледнеят на фона на това, което ни очаква в следващите десетилетия. Успешното създаване на изкуствен интелект ще бъде най-голямото събитие в историята на човечеството. За съжаление, то  може да бъде последното, ако ние не се научим да  избягваме рисковете – цитиран Хогинг британският вестник Independent.

крадено от 30думи

Професорите пишат, че в бъдеще може да се случи така, че никой и нищо да не може да спре машината с нечовешки интелект от самоусъвършенстване. Това ще включи процеса на крадено от 30думи така нареченото технологична  сингулярност, под което се разбира изключително бързото развитие на технологиите. Във филма с Джони Деп в този смисъл се използва думата „трансцендентност“.

Само си представете, че тази технология задмине човека и започне да управлява финансовите пазари , научните изследвания, хората и разработката на оръжия, извън нашето разбиране. крадено от 30думи Ако краткосрочния ефект на изкуствен интелект зависи от това кой го управлява,  дългосрочният ефект –  от това дали може да бъде управляван въобще.

Трудно е да се каже какви   последици  биха могли да има  върху хората изкуствен интелект. Хокинг е убеден, че на тези въпроси са посветени малко сериозни изследвания крадено от 30думи извън такива организации с нестопанска цел, като например Кеймбриджския център за изследване на екзистенциални рискове, Института за бъдещето на човечеството, както и изследователски институти за машинния интелект  и животът на бъдещето.

Според него всеки от нас трябва да се запита какво можем да направим сега, за да се избегне най-лошия крадено от 30думи сценарий за бъдещето.

Междувременно  изкуственият интелект вече бавно прониква в масите.

защищено INVITEXT

Add Comment