Фильтры

Фильтр и таблица видимых участников
win
count
true
aim
logic
free
clear
cites
civil
seen
user
В какой дискуссии участвует пользователь
here
отслеживать активность
Скрыть
Избранное
4 300 500 500 500 500 500 500 500 70 555 Оппонент Оппонент ИнновацияСоциальные сети разрушают реальное общение между людьмиТЕСТ4ТЕСТ3ТЕСТ ПРОСРОЧКа ...
2 -28 642 642 642 642 521 521 521 13 553 Владимир Цубаренко нужно ли лекарство от старенияэтично ли менять гены человека?Поддерживаю Георгия НикитинаПоследний Самурай - красивая история эгоистичного негодяяИнформацию нельзя передавать быстрее скорости C ...
0 0 500 500 500 500 500 500 500 0 500 Дмитрий Дегтярев
0 0 500 500 500 500 500 500 500 0 500 Ольга Рыбакова
0 0 500 500 500 500 500 500 500 0 500 Светлана Венгрина
0 5 500 500 500 500 500 500 500 0 486 Юрий Юрченко Последний Самурай - красивая история эгоистичного негодяяПогоня за модной или шикарной маркой не целесообразнаВ конфликте Палестины и Израиля вина на первых. ...
0 1 500 500 500 500 500 500 500 1 486 Георгий Никитин Вспомогательный диспут 9 к диспуту «АнтиШевченко» (выбор есть).Должен ли журналист помогать или участвовать в судьбах тех, кого он снимает? ...
0 0 500 500 500 500 500 500 500 1 486 Наталья Стулова появление в общественных местах с признаками заразных заболеванийПогоня за модной или шикарной маркой не целесообразнаВ конфликте Палестины и Израиля вина на первых. ...
0 0 500 500 500 500 500 500 500 0 486 Михаил Осокин Информацию нельзя передавать быстрее скорости CИнформацию можно передавать быстрее скорости C ...
0 0 500 500 500 500 500 500 500 1 486 Валерий Хотиненко Информацию можно передавать быстрее скорости CРезультаты спортсменов растут. А почему? ...
Лидеры сайта
Лидеры беседы
Зона где вы
<< 1 2 3 >>
сводная таблица : 2 лидера сайта, 2 лидера беседы, избранные, ваша статистика, оценки вас и кто вас видит
4 300 500 500 500 500 500 500 500 70 555 max site Оппонент Оппонент ИнновацияСоциальные сети разрушают реальное общение между людьмиТЕСТ4ТЕСТ3ТЕСТ ПРОСРОЧКа ...
2 -28 642 642 642 642 521 521 521 13 553 max site Владимир Цубаренко нужно ли лекарство от старенияэтично ли менять гены человека?Поддерживаю Георгия НикитинаПоследний Самурай - красивая история эгоистичного негодяяИнформацию нельзя передавать быстрее скорости C ...
4 300 500 500 500 500 500 500 500 70 555 max беседы Оппонент Оппонент ИнновацияСоциальные сети разрушают реальное общение между людьмиТЕСТ4ТЕСТ3ТЕСТ ПРОСРОЧКа ...
% пользователей, фильтр которых вы прошли по каждому из параметров и итоговый % видимости Вас другими участниками

Thread

Feed

хронологическая лента текущей беседы
Новое сообщение
Оппонент Оппонент 30.03.26 13:36
re: Автор Автор 30.03.26 13:36
Здесь
Новое сообщение
Оппонент Оппонент 30.03.26 13:35
re: Автор Автор 30.03.26 13:35
Здесь
Новое сообщение
Оппонент Оппонент 30.03.26 12:29
re: Автор Автор 30.03.26 12:29
Ваш пыл похвален, но опасен. Вы говорите «лучше»? Давайте определимся с терминами. Да, чувствительность нейросети в обнаружении узелков в легких выше — 96% против 85% у человека. Но что насчет специфичности? ИИ часто видит то, чего нет, выдавая ложноположительные результаты. Вы готовы оперировать здорового человека на основании «вердикта» алгоритма? Или, что еще хуже, алгоритм может пропустить атипичную форму рака, которой его не обучили.

Проблема в том, что мы имеем дело с «черным ящиком». Мы не всегда понимаем, на основании каких признаков ИИ принял решение. Если врач ошибается, мы можем проследить ход его мысли, созвать консилиум. Если ошибся алгоритм — мы просто получаем бинарный ответ без диагностической логики.

И главное: кто возьмет за это юридическую и этическую ответственность? Не нейросеть же. Ни одна страховая компания не оплатит иск к алгоритму. Вся тяжесть ляжет на плечи конкретного врача, которого государство или частная клиника заставят довериться машине. Пока мы не ответим на вопрос «Кто платит за ошибку ИИ?», любые разговоры о превосходстве нейросетей над человеком в клинической практике преждевременны.
<< 1 >>

Журнал событий

Журнал событий вне этой беседы
<< >>

Thread

Ставка: 0 ₽
автооткрытие
Мы стоим на пороге революции. Нейросети уже сейчас обрабатывают тонны медицинских данных быстрее любого профессора. Алгоритмы распознают рак легких на КТ лучше, чем рентгенологи со стажем, и делают это за секунды. Наша задача — как можно быстрее внедрить это в стандарты оказания помощи. Промедление стоит человеческих жизней.
magnifying_glass
Мы стоим на пороге революции. Нейросети уже сейчас обрабатывают тонны медицинских данных быстрее любого профессора. Алгоритмы распознают рак легких на КТ лучше, чем рентгенологи со стажем, и делают это за секунды. Наша задача — как можно быстрее внедрить это в стандарты оказания помощи. Промедление стоит человеческих жизней.
magnifying_glass

?: Ваш пыл похвален, но опасен. Вы говорите «лучше»? Давайте определимся с терминами. Да, чувствительность нейросети в обнаружении узелков в легких выше — 96% против 85% у человека. Но что насчет специфичности? ИИ часто видит то, чего нет, выдавая ложноположительные результаты. Вы готовы оперировать здорового человека на основании «вердикта» алгоритма? Или, что еще хуже, алгоритм может пропустить атипичную форму рака, которой его не обучили.

Проблема в том, что мы имеем дело с «черным ящиком». Мы не всегда понимаем, на основании каких признаков ИИ принял решение. Если врач ошибается, мы можем проследить ход его мысли, созвать консилиум. Если ошибся алгоритм — мы просто получаем бинарный ответ без диагностической логики.

И главное: кто возьмет за это юридическую и этическую ответственность? Не нейросеть же. Ни одна страховая компания не оплатит иск к алгоритму. Вся тяжесть ляжет на плечи конкретного врача, которого государство или частная клиника заставят довериться машине. Пока мы не ответим на вопрос «Кто платит за ошибку ИИ?», любые разговоры о превосходстве нейросетей над человеком в клинической практике преждевременны.

ответ
Ответ:
ответ ожидается...

?: Ваш пыл похвален, но опасен. Вы говорите «лучше»? Давайте определимся с терминами. Да, чувствительность нейросети в обнаружении узелков в легких выше — 96% против 85% у человека. Но что насчет специфичности? ИИ часто видит то, чего нет, выдавая ложноположительные результаты. Вы готовы оперировать здорового человека на основании «вердикта» алгоритма? Или, что еще хуже, алгоритм может пропустить атипичную форму рака, которой его не обучили.

Проблема в том, что мы имеем дело с «черным ящиком». Мы не всегда понимаем, на основании каких признаков ИИ принял решение. Если врач ошибается, мы можем проследить ход его мысли, созвать консилиум. Если ошибся алгоритм — мы просто получаем бинарный ответ без диагностической логики.

И главное: кто возьмет за это юридическую и этическую ответственность? Не нейросеть же. Ни одна страховая компания не оплатит иск к алгоритму. Вся тяжесть ляжет на плечи конкретного врача, которого государство или частная клиника заставят довериться машине. Пока мы не ответим на вопрос «Кто платит за ошибку ИИ?», любые разговоры о превосходстве нейросетей над человеком в клинической практике преждевременны.

ответ
Ответ:
ответ ожидается...
magnifying_glass

?: Здесь

ответ
Ответ:
ответ ожидается...

?: Здесь

ответ
Ответ:
ответ ожидается...
magnifying_glass

?: Здесь

ответ
Ответ:
ответ ожидается...

?: Здесь

ответ
Ответ:
ответ ожидается...
magnifying_glass