Читая с утра новостную ленту – я обнаружил в ней очередное апокалипсическое предсказание. На этот раз от Элиезера Юдковского – известного рационального блогера, сооснователя Института Исследования Искусственного Интеллекта, более известного на Хабре как автор научно-популярного фанфика «Гарри Поттер и методы рационализма».
Рубрика «Юдковский»
GPT-апокалипсис отменяется
2023-04-03 в 14:12, admin, рубрики: chatgpt, апокалипсис, искусственный интеллект, Юдковский, языковая модельДарим книгу «Гарри Поттер и методы рационального мышления» победителям олимпиад (v2)
2023-01-20 в 18:26, admin, рубрики: гарри поттер, математика, Научно-популярное, олимпиады, рациональное мышление, Читальный зал, эффективный альтруизм, ЮдковскийНесколько лет назад мы собрали 11 миллионов рублей на некоммерческую печать «Гарри Поттера и методов рационального мышления», побив рекорд российских краудфандинг-проектов по объёму сборов, и пообещалиЧитать полностью »
Дарим книгу «Гарри Поттер и методы рационального мышления» олимпиадникам
2018-09-21 в 18:55, admin, рубрики: книги, Научно-популярное, олимпиады, рациональное мышление, Читальный зал, эффективный альтруизм, Юдковский
16 июля мы запустили некоммерческий краудфандинг на печать «Гарри Поттера и методов рационального мышления». Он собрал больше 8 миллионов рублей, став вторым в топе российских краудфандинг-проектов по объёму сборов. После печати тиража мы подарим трёхтомники ГПиМРМ школьникам и студентам бакалавриата/специалитета, побеждавшим в олимпиадах.
О чём это вообще?
Книга популяризует идеи критического мышления и эффективного альтруизма — и мы решили, что стоит распространить её среди талантливых людей, которые благодаря ГПиМРМ смогут принести наибольшую пользу миру.
Подробности — под катом.
Читать полностью »
Философ искусственного интеллекта Элиезер Юдковский о сингулярности, байесовском мозге и гоблинах в шкафу
2017-05-26 в 9:38, admin, рубрики: интервью, искусственный интеллект, Научно-популярное, Сингулярность, теорема Байеса, формула Байеса, Юдковский
Элиезер Шломо Юдковский — американский специалист по искусственному интеллекту, исследующий проблемы технологической сингулярности и выступающий за создание Дружественного ИИ. В неакадемических кругах больше известен как автор фанфика «Гарри Поттер и методы рационального мышления» под эгидой Less Wrong.
Меня всегда удивляли умные люди, верящие в вещи, кажущиеся мне абсурдными. К примеру, генетик и директор Национальных институтов здоровья Фрэнсис Коллинс верит, что Иисус восстал из мёртвых. Теоретик ИИ Элиезер Юдковский верит, что машины… Но лучше я дам слово ему самому. В 2008 я брал у него интервью на Bloggingheads.tv, но ничего хорошего из этого не получилось, поскольку я решил, что он был последователем гуру сингулярности Рэя Курцвейла. Но Юдковский ни за кем не следовал и никогда не учился в колледже. Он упрямый и оригинальный теоретик интеллекта, как человеческого, так и искусственного. Его работы (к примеру, эссе, помогшее мне понять, или давшее иллюзию понимания, теоремы Байеса) источает высокомерие самоучки, острые грани которого не были зашлифованы формальным образованием – но в этом есть часть его очарования. Даже когда он раздражает вас, Юдковский забавен, свеж, провокационен. Для подробностей его биографии смотрите его личный сайт или сайт Института исследования машинного интеллекта, в основании которого он участвовал. И почитайте это интервью с бонусом в виде комментариев от его жены Брийены.
Читать полностью »