На главную страницу AlgoNet В сотрудничестве с ZDNet
АРХИВ СТАТЕЙ 2001-9-4 на главную / новости от 2001-9-4
AlgoNet.ru
поиск

 

Место для Вашей рекламы!

 

Все новости от 4 сентября 2001 г.

Хокинг предупреждает о возможном захвате планеты искусственным интеллектом

Если люди хотят помешать компьютерам захватить власть над миром, им придется совершенствоваться при помощи генной инженерии — так считает маститый профессор Кембриджа.

Известный британский ученый Стивен Хокинг (Stephen Hawking) утверждает, что человечеству, если оно хочет поспеть за феноменально быстрым развитием искусственного интеллекта, придется заниматься самосовершенствованием методами генной инженерии. В интервью, опубликованном в субботу в немецком журнале Focus, профессор Хокинг заявил, что в будущем компьютерные технологии, вероятно, обгонят по своему развитию человеческий интеллект. По его мнению, научная модификация генов способна повысить сложность ДНК и «усовершенствовать» организм человека. «Компьютеры, в отличие от нашего интеллекта, удваивают свою производительность каждые полтора года, — говорит Хокинг. — Поэтому существует реальная опасность, что они разовьют интеллект и захватят власть над миром». «Если мы хотим, чтобы биологические системы сохранили свое превосходство над электронными, мы должны пойти по этому пути [генной инженерии]», — заключил автор бестселлера A Brief History of Time.

В прошлом году Хокинг предсказал, что генная инженерия позволит создать суперлюдей с мозгом большего размера и повышенным IQ. Он предостерегает от создания технологий, позволяющих подключать человеческий мозг к компьютеру: «чтобы искусственный мозг помогал человеческому, а не наоборот».

59-летний профессор математики стал жертвой болезни Лу Герига — заболевания нейронов двигательного аппарата, приковавшего его к инвалидной коляске. В Кембриджском университете он занимает кафедру, которая когда-то принадлежала сэру Исааку Ньютону.

Профессор Хокинг не единственный из пользующихся всеобщим уважением ученых, которые видят будущее в подобном свете. Его комментарии перекликаются со словами, произнесенными в марте 2000 года соучредителем и ведущим ученым компании Sun Microsystems Биллом Джоем (Bill Joy), предупреждавшим о потенциальной опасности компьютерных технологий, в создании которых он участвовал. В статье, опубликованной в журнале Wired, Джой предостерегал, что объединение генной инженерии и компьютерной технологии несет очень реальную угрозу человечеству и экосистеме.

По его словам, последние достижения в области молекулярной электроники означают, что к 2030 году «мы, вероятно, сможем создавать машины, в миллион раз мощнее современных персональных компьютеров» и наделять их интеллектом на уровне человеческого. «Возможно, что созданные мною инструменты помогут построить технологию, которая займет место нашего биологического вида. Мне очень неприятно думать об этом», — сказал он.

В этом месяце в Великобритании выйдет фильм Стивена СпилбергаA.I. — научно-фантастическая картина Стэнли Кубрика, которую покойный режиссер так и не закончил. Действие фильма происходит в 21 веке — он повествует о сознательном компьютере, спасающем мир от экологической катастрофы, вызванной парниковым эффектом.
Обсуждение и комментарии

Null - kurantvologda.edu.ru
4 Sep 2001 3:38 PM
Брехня а-ля Гибсон.
Все от неточного определения понятий "искусственный интеллект" и "искусственный разум". ИИ -- это программа, способная решать поставленную задачу не только следуя заданному алгоритму, но и подбирая и проектируя самостоятельно оптимальные алгоритмы поиска. ИР, который так возлюбили современные фантасты, обладает личностной компонентой, причем зачастую описывается именное человеческое поведение ИР. Проще говоря ИИ -- это инструмент, ИР -- это личность, обладающая, как и любая другая личность, свойством мотивации собственных действий. Именно человеческая и только человеческая личность может задать компьютеру мотивацию, тогда бессмысленно говорить о компьютере как о совершенно новом самостоятельном разумном виде. Да, возможна интеграция человеческого разума с вычислительными мощностями компьютера, но при этом поведение будет полностью задавать человек, а компьютер останется всего лишь вычислительным придатком подобно калькулятору в кармане (или пистолету за пазухой).

P.S. Кто-нибудь понял, что я сказал?
 

Просто прохожий
4 Sep 2001 4:35 PM
Всего каких-нибудь 10 лет назад выдать что-то на принтер это было целое искуство. Сейчас мне примерно так же тяжело запустить какую-нибудь полезную обработку voice recognition.
Не зарекайся.
 

KDV
4 Sep 2001 6:27 PM
В этом месяце в Великобритании выйдет фильм Стивена Кинга A.I. .... Что-то ZD Net заговариваться стали... Вобще-то этот фильм снял хотя и Стивен, но Спилберг...
 

Редакция - infozdnet.ru
4 Sep 2001 6:55 PM
Точно, спасибо! Зарапортовались :))
 

Андрей
4 Sep 2001 8:31 PM
Ничего страшного - всех спасет линукс и никакой угрозы искусственного разума не получится :-)
 

Fish
4 Sep 2001 9:13 PM
Bill Gates sposet nas ot zahavata planeti pri pomoshi XP. (Ploho esle zavisnet na seredine srajenia, predetsa perezpusakati, budem nadeiatsa chto iconki ostanutsa na tomje meste)
 

val
5 Sep 2001 6:27 AM
To: 04.09.2001 16:35 Просто прохожий

Voice recognition i handwriting recognition zapuskayutsya i nastrivayutsya uze toze s pol-pinka. Glavnoe snachala nepolenitsya i skormit programme stranic 50 togo chto sam napisal chtoby ona model yazyka postroila adekvatnuyu.
Navernoe k 2030 godu budem domashnimi zyvotnymi komputerov.
 

Vlad Kosulin - kosulinyahoo.com
5 Sep 2001 7:33 AM
To Null:
Если бы ты действительно занимался проблемами ИИ, то должен был хотя бы краем уха слышать, например, о самообучаемых и самоорганизуемых системах.
Что же касается мотивации, то любой психолог (или социолог) тебе объяснит, как окружение программирует человеческую мотивацию. Ничего _исключительно_ присущего только человеку здесь нет.А насчет того, что ты с таким гонором здесь произнес, то это обычный ламерский треп.
 

Злобный читатель
5 Sep 2001 12:35 PM
да фигня, все это провода обрежем и никакого захвата не буйт
 

kvasim
5 Sep 2001 12:54 PM
ну и что что займут нашу нишу..
только надо что бы не на нашей планете..
например на марсе..
хотя нет марс должен быть наш..

отправить их подальше напрмер на плутон..
или на спутники Юпитера..

по большему счету мы "тараканов"- ( считается что современный комп можно по IQ сравнить с тараконом"
мы уже туда запустили - всякие вояджерый фобосы и "пионеры"..- правда без функций размножения..

но лет через 10 и это будет возможно..
и ничего тут страшного..
путь осваивают планеты..

а потому мы прилетим на готовенькое..( главное в их "ДНК" заложить не уничножение нас)

 

kvasim
5 Sep 2001 12:59 PM
2 Злобный..
а ты думаешь через 30 лет будту провада :)

электоинергию будут получать прямо из воздуха.
те много не надо будет..
а всякой гадоскти в воздухе полно..
всйики там амиакиа бактерии и так далее..
да хотя бы тоже солнце..
так что от Чубайса эти "электронные животные тожно зависить не будут..

 

exhausted - snzchat.ru
5 Sep 2001 2:40 PM
Зря это вы!
Дядька Хокинг глупостей не говорит.
Готовились бы лучше - учили матчасть.
 

Kosta
5 Sep 2001 3:37 PM
Глупости говорят все. Особенно стареющие люди, впадающие в маразм. Прежние заслуги от этого не спасают. Только помогают узнать об этом большему числу окружающих ;)
 

glassy
5 Sep 2001 5:41 PM
2Vlad: Окружение создает человека? Не скажи. Простой вопрос -- сколько в мире женщин-авиадиспетчеров и почему?

Я думаю, что если для СИИ (база знаний, правил, устройство логического вывода и остальная шняга) сделать очень точный интерфейс (от младенца и далее) -- ничего человеческого там не появится. Оффтопик -- стал недавно дядей, интеллект 4-х недельной девочки намного опережает интеллект всех мною виденных животных (including шимпанзе, обученных языку жестов).

Самое точное -- это высказывание про маразм. Меньше надо фантастики смотреть :)
А дядька Хоукинг такую вещь сказал, потому что у него для этого авторитета хватает -- не более.

А еще я Гиперион читал. Хоукинг, наверное, тоже :)

Короче, нет души ни у PC-ков, ни у кластеров, ни у интернета. А если кто-то попытается привить, то привьет заоднои чувство неполноценности. Так что -- стоит.
 

glassy
5 Sep 2001 5:42 PM
не стоит, говорю :)
 

aksakal
5 Sep 2001 8:18 PM
А почему захват планеты Вам представляется "нашествием роботов"?
Тут ить какая проблема: мы сами, встав на технологический путь развития, связали себя с "железками" и стали на них полагатся. Теперь наши брэйны начинают от них отставать ПО ПРОИЗВОДИТЕЛЬНОСТИ. А железки из помошников превратились в советчиков. Вот в общем то и все. Наша песенка как говорится того, спета...

Человечество несется сломя голову хрен поймешь куда, и на поворотах нет времени подумать, "а правильно ли мы поворачиваем?". А железка тут тебе такого на советует... Короче Терминатор-I раем покажется.
С прискорбием :(((...
 

Kosta
6 Sep 2001 11:42 AM
2aksakal: интересно в чем измеряется эта производительность? Даже производительность процессоров разных архитектур трудно четко сравнивать, а вы пытаетесь сравнивать столь различные вещи по совершенно непонятным критериям!
 

aksakal
6 Sep 2001 1:14 PM
2 Kosta:

Ваша правда, снимаю всю фразу, и заменяю ее на "Производительность железок растет и растет."

Спасибо.
 

kvasim
6 Sep 2001 1:30 PM
я видел женщину авиадиспечера..
 

Noname
6 Sep 2001 2:04 PM
Не знаю, как насчет ИИ. Это старая сказка для грантодателей. Как можно создавать ИИ, если никто не знает, что такое естественный интеллект? Можно подумать, что созданию ИИ мешает лишь недостаточное быстродействие компьютеров. А какое быстродействие нужно - никто не говорит. Например, для моделирования сворачиваемости белка (это когда куриное яйцо варится) уже известен объем вычислений (не помню, какой) и здесь действительно задержка за ЭВМ.

А вообще, не понятно, почему все уперлись в ИИ? Ведь в статье прописана еще одна "радужная" перспектива - самомодификация генома человека с целью повышения его интеллектуальных способностей.
Вот тут дествительно человечеству может настать 3.14здец. Повырастают и хвосты, и копыта. И если перспективы ИИ весьма туманны, то игры с генами идут уже сейчас.
 

glassy
6 Sep 2001 2:36 PM
она тестостерон принимала :)
 

FF - f-rubzahav.net.il
6 Sep 2001 3:40 PM
Компьютеры, ИИ, Чернобыль и т.д. это порождение разума человека.
Если Ваш дедушка в возрасте от 5 до 15 лет максимум гусей да коров пасти мог, то посмотрите на современных деток :-)
Шо пострелы вытворяют с компьютерами....
Я конечно академика из Кембриджа уважаю, но скорость естественного развития человеческого интеллекта, я думаю ничуть не уступает скорости развития железного....
Ну и любую живую и неживую систему можно остановить - есть и бактерии и вирусы и глисты (пардон - черви) и ошибки и отсутствие харчей. Как материальных так и духовных. вспомним "Матрицу".
А живучесть биологических видов и их приспосабливаемость к условиям окружающей среды вроде бы противоречит всем физическим законам. Так что не переживайте - выживем!
Хотя, могут быть и жертвы...
Да в общем то если разобраться, мы и так все под Б-гом (то бишь похоже под очень мощьным интеллектом ходим, на порядки выше естественного и искусственного) ;-))
 

nkir - nkirmail.ru
6 Sep 2001 4:17 PM
2FF Способность работать с современной техникой вовсе не
говорит о степени интеллектуального развития человека. Чему
человека научишь - то он и будет знать (зависит еще от
способностей). Знаю об одном прадедушке, который к пятнадцати
годам свободно говорил на нескольких языках, имел глубокие
знания философии и истории, прекрасно владел точными науками и
инженерным делом (на уровне того времени, конечно). И таких
примеров немало, ибо система образования тогда была очень
неплохой. Перенеси таких людей в наше время и они мигом
научатся владеть компом. И посмотри на многих современных
отпрысков, которые в десятом классе читают по-слогам, пишут с
ошибкой в каждом слове, не говоря уже о языках, философии,
физике, химии и проч., зато мнят себя крутыми хакерами и
словарный запас которых состоит лишь из околокомпьютерного
слэнга.
Выражу крамольную мысль: человек в ходе истории не
развивается, а деградирует по всем статьям, а особенно духовно.
 

nkir - nkirmail.ru
6 Sep 2001 4:18 PM
2FF Способность работать с современной техникой вовсе не
говорит о степени интеллектуального развития человека. Чему
человека научишь - то он и будет знать (зависит еще от
способностей). Знаю об одном прадедушке, который к пятнадцати
годам свободно говорил на нескольких языках, имел глубокие
знания философии и истории, прекрасно владел точными науками и
инженерным делом (на уровне того времени, конечно). И таких
примеров немало, ибо система образования тогда была очень
неплохой. Перенеси таких людей в наше время и они мигом
научатся владеть компом. И посмотри на многих современных
отпрысков, которые в десятом классе читают по-слогам, пишут с
ошибкой в каждом слове, не говоря уже о языках, философии,
физике, химии и проч., зато мнят себя крутыми хакерами и
словарный запас которых состоит лишь из околокомпьютерного
слэнга.
Выражу крамольную мысль: человек в ходе истории не
развивается, а деградирует по всем статьям, а особенно духовно.
 

Serge - psptamben.elektra.ru
6 Sep 2001 4:58 PM
Уже тогда, когда люди стали создавать механизмы, превосходящие мускульную силу человека, надо было поднимать панику. И следуя логике Хокинга, им уже тогда надо было утверждать: у человека лишь два пути: либо с помощью генной инженерии делать человека мощнее машин, либо вживлять ему протезы, обладающие большой мощностью. Ясно, что Хокинг не так глуп, чтобы просмотреть очевидную глупость своего утверждения. Я думаю, он лобирует интересы людей, работающих в области генной инженерии.
 

aksakal
6 Sep 2001 5:17 PM
Да, грех это в промысел Б-жий лезть (пто генную-то инженерИю)...
 

Kon
6 Sep 2001 5:31 PM
Будет ИИ, будет, но не через 30 лет а гораздо поздже. Все эти прогнозы туфта... А может раньше, чем ИИ появится, где-то бахнет ядерная бомба - и опять все сначала...
 

Алексей - provnm.ru
6 Sep 2001 6:00 PM
А лично я согласен с Хокингом.
да хотя бы потому, что известно на практике, что человечество никогда не остановится перед открытием чего-то нового и важного (как это будет думаться), а только потом задумается о последствиях.
А ведь такие открытия происходят случайно... Кто-то напаяет лишнюю микросхему (образно) и вот - камень начал обучаться самостоятельно. А ведь до того момента, когда компьютер будет просчитывать варианты на порядок быстрее человека надо не так уж много времени. А на подходе квантовые компьютеры, скорость которых сейчас даже не с чем сравнить...
И что мы в результате имеем ?
Кусок камня, способного за долю секунды просчитать то, на что у человека ушли бы годы...
Преследующий свои цели холодно и не останавливаясь ни перед какими жертвами. Не имеющий ценностей и морали.
Реальную угрозу человечеству, как угрозе его существования.

И я уверен, что все эти фильмы - матрица, терминатор и т.д. были сняты при содействии таких вот учёных, как Хокинг (матрица вообще была снята по книге), которые пытаются открыть глаза человечеству на действительно страшное открытие. Пытаются передать то, что они предвидят, благодаря своему опыту и знаниям.

Я не знаю, возможно, когда камни научат говорить, они почувствуют неполноценность и сгорят от стыда, но это так страшно - видеть говорящий кусок камня.
Камни не могут чувствовать.
 

glassy
6 Sep 2001 6:01 PM
Алле, народ прочитайте Гиперион+Падение Гипериона, а то я как будто один из тутошних понимаю, о чем речь.
 

FF - f-rubzahav.net.il
6 Sep 2001 8:17 PM
Ри один ИИ не сможет сравниться по своей изощренности, нелогичности и непредсказуемости с живым индивидумом.
я думаю чувствовать его таки научат. Температуру свет, может даже запах и т.д. Но кто его научит интуиции, алогичности, принятию решений?

все это и есть мысль. Есть мышление ассоциативное. Это мы умеем. А вот камень? Сможет ли?
Любой интеллект в конечном счете делает все для достижения своих физических интересов и потребностей.
Предположим ИИ начал размножаться. А зачем это ему? Не проще ли остаться одной машиной, и подмять под себя интел, ну чтоб абгрейдиться постоянно. Человеку нужно размножаться для сохранения вида. А камню? Цель?
Железная логика породит монополию но не экспансию. Да вобщем то мы еще не вымерли, и наврядли вымрем, так как правильно написал NKIR, человек обучаем. И обучится справляться с камнями, какие бы они ИИ не были.
Ну а от генной инженерии можете не беспокоиться, хвосты не вырастут. а вот кое какие физические недостатки поправить может быть удастся. Это всего лишь один из путей ускорения эволюции. А тот софт, что в нас заложен изначально, изменить нельзя. это как 0 и 1. если изменишь - другой вид получится. Да вот только пока что переплюнуть создателя той первой и основной программы - никому не удалось и не удастся.
А камень он и есть камень.
 

Sanich - brt42mail.ru
7 Sep 2001 5:41 AM
Любой электрик скажет как бороться с захватом планеты искусственным интеллектом.Рубильник хлоп, и выключил!!! Всего-то делов!
 

Heatman
7 Sep 2001 6:53 AM
Кто такой Гиперион и как его почитать ?
 

Daulet - dauletbaur.kz
7 Sep 2001 7:23 AM
1 вопрос. Для того, чтобы так предупреждать, нужно доказать что ИИ может существовать. Угроза от него может пойти, когда он почувствует угрозу для себя. Как тараканы начинают разбегаться когда включишь лампочку.
Ну объясните мне - зачем ему нас когда-либо захватывать???? Власть - это ответственность. Нас же кормить придется, защищать... и т.д.
Мне кажется больше бояться надо не того, что ИИ разовьется, а того, что в мощную инфраструкуру заползет человеческий разум и .... короче "Газонокосильщика"
 

glassy
7 Sep 2001 7:24 AM
как ребенок! www.lib.ru -> поиск
 

eXOR
7 Sep 2001 8:32 AM
2 glassy:
Хех.... читали читали... а я в общем - то даже и не против того, чтобы пожить в глобальной инфосфере... только бы в роли этого... как его... ИскИна, а не простой микросхемки, для глобального кластера.

 

Dmitri - adfnatlib.udm.ru
7 Sep 2001 9:06 AM
Не надо путать качественное и количественное изменение. Рост мощности компьютеров сильно отстает от их качественного развития. Спор о исходящем и нисходящем пути развития остается в тойже силе.

А что касается людей. Человек с мобильным телефоном лет 200 назад показался бы не менее апокалиптично, чем нам с компьютером обладающим прямым интерфейсом с мозгом, миную внешние раздражители.

Человек тоже меняется, просто это менее заметно. Вспомните чужих детей, которые растут намного быстрее своих. Или посмотрите свои старые фотографии)))
 

Daulet - dauletbaur.kz
7 Sep 2001 9:11 AM
Мне кажется, авторы пророчества начали (особенно сановец) идентифицировать свои создания с самими собой и испугались...
Страх более глубинен... действительно, развивается ли человек как вид?
Беда Хокинга в том, что биология и психология не его область, поэтому он не видит, что человеку есть куда развиваться... Любой суперразумный Интеллект всего лишь инструмент в руках Личности. Но пока Хокинг (как и все мы) идентифицируем свой интеллект (инструмент) с собственной личностью, конечно есть от чего придти в отчаяние.
 

1
7 Sep 2001 9:33 AM
Ха! Действительно, кто нибудь знает, зачем мы это делаем - создаем компьютеры, которые станут умнее нас, создаем генетические инструменты которые сделают из нас существ с большим мозгом и IQ.

Кто-то же должен дать на это ответ, прежде чем мы начнем готовиться к тотальному Джихаду против сверхразумных компьютеров....
 

1 - dauletbaur.kz
7 Sep 2001 9:35 AM
Чем дальше тем больше начинаю понимать как далеко вперед видел все Фрэнк Херберт со своей "Дюной"
 

BL - ilchernyahoo.com
7 Sep 2001 10:35 AM
Большая голова - это все-таки как то неэстетично.
Стоит ли нам так глобально изменять свои мозги, когда, если верить медикам, они у нас и так задействованы то ли на 10%, то ли чуть более...
Легендарные люди, которые научились его использовать лучше обычных, обладали такими способностями, как левитация, телекинез, сверхпамять, сложнейшие вычисления в уме и т.п.
Может, привлечь генную инжинерию именно к этой задаче? К задаче заставить мозги человечества работать так, как это умеют только уникумы?
 

Null - kurantvologda.edu.ru
7 Sep 2001 10:50 AM
Ладно, попробуем без гонора и ребятских мечтаний.
Мы говорим об ИР как о самоорганизущейся системе, способной перестраивать свой комплекс ответных реакций на внешнее информационное воздействие (назовем эту фигню "разумом" или его подобием:) в зависимости от изменения окружающей среды. Этого не умеет пока ни одна программа, т.к. комплекс ответных реакций строго запрограммирован.

Науке известен случай самоорганизующихся систем, напр. эволюционирующая экосистема планеты. Следуя принципу эволюционирующей системы, самоорганизующая программа должна иметь свой срок жизни, многократно воспроизводить свои копии с небольшими изменениями (свойства изменчивости и наследственности). Положительные мутации закрепляются, отрицательные исчезают вместе с их носителями (естественный отбор).

Теперь посмотрим что мы имеем на сегодняшний день: размножающаяся и мутирующая компьютерная программа? С очень большой натяжкой -- комьютерный вирус! Если проводить аналогию с органической жизнью, то вирусы -- самые примитивные организмы (ученые даже спорят, являются ли они вообще живыми), находящиеся на самой низшей эволюционной ступени. От разумного человека их отделяет пропасть :) Большим шагом к самоорганизующейся системе будет написание вируса с механизмом приспосабливание к любой архитектуре компа.

P.S. Возможно, существуют неэволюцонные варианты самоорганизующихся систем, но вряд ли они будут столь прогрессивны.

P.P.S. Все-равно программы останутся лишь инструментами в руках человека, будь то калькулятор, программа психологической помощи трудновоспитуемым подросткам, САПР с прямым подключением к мозгу или глобальная система социального анализа. Программа никогда не скажет "я хочу". Программа скажет лишь "для решения ... требуется ..."
 

chonka - chonkamail.ru
7 Sep 2001 11:57 AM
Кто нибудь читал рассказ Джона Варли
Нажмите "ВВОД" http://moshkow.perm.ru/win/INOFANT/WARLI/enter.txt
? Если да, скажите пожалуйста, такое возможно ?
 

eXOR
7 Sep 2001 2:26 PM
2 "1":
Но ведь у Герберта все закончилось хорошо ;-))... Золотой Путь Лето - 2го опять свел человека с машиной ;-))... вообще читайте Айзека Азимова.
 

eXOR
7 Sep 2001 4:13 PM
2 chonka:
Обалденный рассказ!
 

vinigret - vinigretpisem.net
7 Sep 2001 7:40 PM
Обалденный рассказ!
Значит, ЭТО все-таки есть? :)
 

eXOR
7 Sep 2001 10:45 PM
2 vinigret :
значит что рассказ приятный ;-)
 

Genesys - genesysfreemail.ru
9 Sep 2001 10:06 AM
Стивен калека поэтому и комплексует

Простите за жесткость!

 

Jek
9 Sep 2001 3:05 PM
Стивен Хокинг конечно замечательный физик, и поэтому я бы серьезнее воспринял его прогнозы именно в области физики, а не в пророчествах по поводу ИИ или генной инженерии (ГИ). А подобные заявления только подрывают его авторитет как серьезного ученого.
Кто сейчас может сколь-нибуть аргуметрированно сказать что будет для человечества болезнью а что лекарством - ИИ или ГИ ??? По мне так с ГИ нужно осторожничать не менее чем с ИИ.
Да ктати в 50-х, 60-х тоже были весьма оптимистичные прогнозы по поводу бурного развития науки и практики искуственного интелекта. А затем последовали десятиления отрезвления и разочарования. Оказалось что все не так просто.
Я лично считаю что будут развивать ИИ независимо от предостережений, а что из этого получится уже поймут потом. Как всегда.
 

glassy
12 Sep 2001 3:26 PM
Заговор бортовых компьютеров с автопилотами :]...
 

andrevv
23 Sep 2001 6:47 PM
"Действие фильма происходит в 21 веке — он повествует о сознательном компьютере, спасающем мир от экологической катастрофы, вызванной парниковым эффектом" --
8( )
Vy by hot' film snachala posmotreli prezhde chem takuyu chush pisat'...
 

 

← август 2001 3  4  5  6  7  10  11  12  13 октябрь 2001 →
Реклама!
 

 

Место для Вашей рекламы!