Стивън Хокинг нарече изкуствения интелект „възможно най-голямата грешка в историята на човечеството“

Прочутият британски физик Стивън Хокинг, в статия, вдъхновена от научно-фантастичния филм "Transcendence" с Джони Деп в главната роля , заяви, че подценяването на заплахата от изкуствения интелект може да се окаже най-голямата грешка в историята на човечеството.

Прочутият британски физик Стивън Хокинг, в статия, вдъхновена от научно-фантастичния филм "Transcendence" с Джони Деп в главната роля , заяви, че подценяването на заплахата от изкуствения интелект може да се окаже най-голямата грешка в историята на човечеството.Прочутият британски физик Стивън Хокинг, в статия, вдъхновена от научно-фантастичния филм „Transcendence“ с Джони Деп в главната роля , заяви, че подценяването на заплахата от изкуствения интелект може да се окаже най-голямата грешка в историята на човечеството.

В статия, написана в сътрудничество с проф. Стюарт Ръсел, специалист по компютърни науки в Университета на Калифорния в Бъркли и професорите по физика Макс Тегмарк и Франк Вилчек от Масачузетския технологичен институт, Хокинг посочва някои постижения в областта на изкуствения интелект, отбелязвайки самоуправляващите се автомобили, гласовия асистент Siri и суперкомпютърът,  който победи човек в телевизионната викторина- игра Jeopardy.

Всички тези постижения бледнеят на фона на това, което ни очаква в следващите десетилетия. Успешното създаване на изкуствен интелект ще бъде най-голямото събитие в историята на човечеството. За съжаление, то  може да бъде последното, ако ние не се научим да  избягваме рисковете – цитиран Хогинг британският вестник Independent.

Професорите пишат, че в бъдеще може да се случи така, че никой и нищо да не може да спре машината с нечовешки интелект от самоусъвършенстване. Това ще включи процеса на така нареченото технологична  сингулярност, под което се разбира изключително бързото развитие на технологиите. Във филма с Джони Деп в този смисъл се използва думата „трансцендентност“.

Само си представете, че тази технология задмине човека и започне да управлява финансовите пазари , научните изследвания, хората и разработката на оръжия, извън нашето разбиране. Ако краткосрочния ефект на изкуствен интелект зависи от това кой го управлява,  дългосрочният ефект –  от това дали може да бъде управляван въобще.

Трудно е да се каже какви   последици  биха могли да има  върху хората изкуствен интелект. Хокинг е убеден, че на тези въпроси са посветени малко сериозни изследвания извън такива организации с нестопанска цел, като например Кеймбриджския център за изследване на екзистенциални рискове, Института за бъдещето на човечеството, както и изследователски институти за машинния интелект  и животът на бъдещето.

Според него всеки от нас трябва да се запита какво можем да направим сега, за да се избегне най-лошия сценарий за бъдещето.

Междувременно  изкуственият интелект вече бавно прониква в масите.

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *