Фильтры

Фильтр и таблица видимых участников
win
count
true
aim
logic
free
clear
cites
civil
seen
user
В какой дискуссии участвует пользователь
here
отслеживать активность
Скрыть
Избранное
11 330 278 311 407 326 386 433 421 124 597 Оппонент Оппонент ТЕСТ winТест обсуждениетестТест флаг со ставкойТест - таймер ...
0 0 580 558 503 500 576 499 577 18 522 Андрей Кодылев Поддерживаю Георгия НикитинаПомогать больным чревато, ухудшается генофонд, обрекая последующие поколения на страдания. ...
0 0 512 537 530 537 566 464 458 0 498 Олег Чечетка
0 0 510 516 518 513 515 508 508 0 496 Ольга Рыбакова
1 0 508 553 459 500 500 499 500 11 488 Валерий Хотиненко rrr2rrrrrrrrrrrqqqИнформацию можно передавать быстрее скорости CРезультаты спортсменов растут. А почему? ...
0 0 500 501 500 501 499 499 509 0 487 Андрей Кодылев Помогать больным чревато, ухудшается генофонд, обрекая последующие поколения на страдания. ...
0 0 500 500 505 500 500 500 500 10 486 Дмитрий Дегтярев rrrrrrrrrrr ...
0 0 500 500 500 500 504 500 500 0 486 Дмитрий Ржевский
0 0 500 500 500 500 500 500 500 0 486 Светлана Венгрина
6 -28 508 508 508 508 508 508 508 96 485 Владимир Цубаренко нужно ли лекарство от старенияэтично ли менять гены человека?Поддерживаю Георгия НикитинаПоследний Самурай - красивая история эгоистичного негодяяИнформацию нельзя передавать быстрее скорости C ...
Лидеры сайта
Лидеры беседы
Зона где вы
<< 1 2 3 >>
сводная таблица : 2 лидера сайта, 2 лидера беседы, избранные, ваша статистика, оценки вас и кто вас видит
11 330 278 311 407 326 386 433 421 124 597 max site Оппонент Оппонент ТЕСТ winТест обсуждениетестТест флаг со ставкойТест - таймер ...
0 0 580 558 503 500 576 499 577 18 522 max site Андрей Кодылев Поддерживаю Георгия НикитинаПомогать больным чревато, ухудшается генофонд, обрекая последующие поколения на страдания. ...
11 330 278 311 407 326 386 433 421 124 597 max беседы Оппонент Оппонент ТЕСТ winТест обсуждениетестТест флаг со ставкойТест - таймер ...
19 330 489 490 502 513 501 473 473 146 482 max беседы Автор Автор ТЕСТ ставкаТЕСТ проверкаТест длаг автор оппонентТест таймер автор-оппонентНужны ли домашние задания в современной школе? ...
% пользователей, фильтр которых вы прошли по каждому из параметров и итоговый % видимости Вас другими участниками

Thread

Feed

хронологическая лента текущей беседы
Новое сообщение
re: Автор Автор 30.03.26 17:44
Красивая теория, которая разбивается о суровую реальность клиник. Во-первых, «помощник» требует колоссальной инфраструктуры, которую в большинстве регионов никто не оплатит. Во-вторых, вы забываете про феномен «слепого доверия к авторитету». Проводились исследования: когда врач знает, что ИИ уже выдал заключение, он подсознательно подстраивает свое решение под машину, даже если интуитивно чувствует, что что-то не так. Мы рискуем вырастить поколение врачей, которые разучатся думать, делегируя мышление «черному ящику».
Новое сообщение
re: Автор Автор 30.03.26 13:36
Здесь
Новое сообщение
re: Автор Автор 30.03.26 13:35
Здесь
Новое сообщение
re: Автор Автор 30.03.26 12:29
Ваш пыл похвален, но опасен. Вы говорите «лучше»? Давайте определимся с терминами. Да, чувствительность нейросети в обнаружении узелков в легких выше — 96% против 85% у человека. Но что насчет специфичности? ИИ часто видит то, чего нет, выдавая ложноположительные результаты. Вы готовы оперировать здорового человека на основании «вердикта» алгоритма? Или, что еще хуже, алгоритм может пропустить атипичную форму рака, которой его не обучили.

Проблема в том, что мы имеем дело с «черным ящиком». Мы не всегда понимаем, на основании каких признаков ИИ принял решение. Если врач ошибается, мы можем проследить ход его мысли, созвать консилиум. Если ошибся алгоритм — мы просто получаем бинарный ответ без диагностической логики.

И главное: кто возьмет за это юридическую и этическую ответственность? Не нейросеть же. Ни одна страховая компания не оплатит иск к алгоритму. Вся тяжесть ляжет на плечи конкретного врача, которого государство или частная клиника заставят довериться машине. Пока мы не ответим на вопрос «Кто платит за ошибку ИИ?», любые разговоры о превосходстве нейросетей над человеком в клинической практике преждевременны.
<< 1 >>

Журнал событий

Журнал событий вне этой беседы
<< >>

Thread

Ставка: 0 ₽
автооткрытие
Мы стоим на пороге революции. Нейросети уже сейчас обрабатывают тонны медицинских данных быстрее любого профессора. Алгоритмы распознают рак легких на КТ лучше, чем рентгенологи со стажем, и делают это за секунды. Наша задача — как можно быстрее внедрить это в стандарты оказания помощи. Промедление стоит человеческих жизней.
magnifying_glass
Мы стоим на пороге революции. Нейросети уже сейчас обрабатывают тонны медицинских данных быстрее любого профессора. Алгоритмы распознают рак легких на КТ лучше, чем рентгенологи со стажем, и делают это за секунды. Наша задача — как можно быстрее внедрить это в стандарты оказания помощи. Промедление стоит человеческих жизней.
magnifying_glass

?: Ваш пыл похвален, но опасен. Вы говорите «лучше»? Давайте определимся с терминами. Да, чувствительность нейросети в обнаружении узелков в легких выше — 96% против 85% у человека. Но что насчет специфичности? ИИ часто видит то, чего нет, выдавая ложноположительные результаты. Вы готовы оперировать здорового человека на основании «вердикта» алгоритма? Или, что еще хуже, алгоритм может пропустить атипичную форму рака, которой его не обучили.

Проблема в том, что мы имеем дело с «черным ящиком». Мы не всегда понимаем, на основании каких признаков ИИ принял решение. Если врач ошибается, мы можем проследить ход его мысли, созвать консилиум. Если ошибся алгоритм — мы просто получаем бинарный ответ без диагностической логики.

И главное: кто возьмет за это юридическую и этическую ответственность? Не нейросеть же. Ни одна страховая компания не оплатит иск к алгоритму. Вся тяжесть ляжет на плечи конкретного врача, которого государство или частная клиника заставят довериться машине. Пока мы не ответим на вопрос «Кто платит за ошибку ИИ?», любые разговоры о превосходстве нейросетей над человеком в клинической практике преждевременны.

ответ
Автор Автор 30.03.26 15:42
Ответ: Ваш консерватизм понятен, но он дорого обходится пациентам. Вы упираете в специфичность? Давайте посмотрим на реальную клиническую практику. Человек-рентгенолог устаёт к концу смены, его внимание падает, он пропускает до 30% патологий при скрининге. ИИ же стабилен как машина. Да, ложноположительные срабатывания есть — но это не повод оперировать здорового. Это повод сделать ИИ инструментом первого фильтра: алгоритм помечает подозрительные участки, а врач принимает окончательное решение. Так мы ловим то, что человек бы пропустил.

Что касается «чёрного ящика» — это преувеличение. Современные методы объяснимого ИИ (XAI) уже строят тепловые карты, показывая, на какие именно области снимка алгоритм обратил внимание. Врач видит не просто «рак/не рак», а визуальное обоснование. Более того, человек часто не может объяснить свою интуицию — он просто «опытный глаз». Разве это не такой же «чёрный ящик»?

Юридическая ответственность — вопрос времени, а не запрета технологий. Уже сейчас раз

?: Ваш пыл похвален, но опасен. Вы говорите «лучше»? Давайте определимся с терминами. Да, чувствительность нейросети в обнаружении узелков в легких выше — 96% против 85% у человека. Но что насчет специфичности? ИИ часто видит то, чего нет, выдавая ложноположительные результаты. Вы готовы оперировать здорового человека на основании «вердикта» алгоритма? Или, что еще хуже, алгоритм может пропустить атипичную форму рака, которой его не обучили.

Проблема в том, что мы имеем дело с «черным ящиком». Мы не всегда понимаем, на основании каких признаков ИИ принял решение. Если врач ошибается, мы можем проследить ход его мысли, созвать консилиум. Если ошибся алгоритм — мы просто получаем бинарный ответ без диагностической логики.

И главное: кто возьмет за это юридическую и этическую ответственность? Не нейросеть же. Ни одна страховая компания не оплатит иск к алгоритму. Вся тяжесть ляжет на плечи конкретного врача, которого государство или частная клиника заставят довериться машине. Пока мы не ответим на вопрос «Кто платит за ошибку ИИ?», любые разговоры о превосходстве нейросетей над человеком в клинической практике преждевременны.

ответ
Автор Автор 30.03.26 15:42
Ответ: Ваш консерватизм понятен, но он дорого обходится пациентам. Вы упираете в специфичность? Давайте посмотрим на реальную клиническую практику. Человек-рентгенолог устаёт к концу смены, его внимание падает, он пропускает до 30% патологий при скрининге. ИИ же стабилен как машина. Да, ложноположительные срабатывания есть — но это не повод оперировать здорового. Это повод сделать ИИ инструментом первого фильтра: алгоритм помечает подозрительные участки, а врач принимает окончательное решение. Так мы ловим то, что человек бы пропустил.

Что касается «чёрного ящика» — это преувеличение. Современные методы объяснимого ИИ (XAI) уже строят тепловые карты, показывая, на какие именно области снимка алгоритм обратил внимание. Врач видит не просто «рак/не рак», а визуальное обоснование. Более того, человек часто не может объяснить свою интуицию — он просто «опытный глаз». Разве это не такой же «чёрный ящик»?

Юридическая ответственность — вопрос времени, а не запрета технологий. Уже сейчас раз
magnifying_glass

?: Красивая теория, которая разбивается о суровую реальность клиник. Во-первых, «помощник» требует колоссальной инфраструктуры, которую в большинстве регионов никто не оплатит. Во-вторых, вы забываете про феномен «слепого доверия к авторитету». Проводились исследования: когда врач знает, что ИИ уже выдал заключение, он подсознательно подстраивает свое решение под машину, даже если интуитивно чувствует, что что-то не так. Мы рискуем вырастить поколение врачей, которые разучатся думать, делегируя мышление «черному ящику».

ответ
Автор Автор 06.04.26 13:01
Ответ: Ответ

?: Красивая теория, которая разбивается о суровую реальность клиник. Во-первых, «помощник» требует колоссальной инфраструктуры, которую в большинстве регионов никто не оплатит. Во-вторых, вы забываете про феномен «слепого доверия к авторитету». Проводились исследования: когда врач знает, что ИИ уже выдал заключение, он подсознательно подстраивает свое решение под машину, даже если интуитивно чувствует, что что-то не так. Мы рискуем вырастить поколение врачей, которые разучатся думать, делегируя мышление «черному ящику».

ответ
Автор Автор 06.04.26 13:01
Ответ: Ответ
magnifying_glass

?: Здесь

ответ
Автор Автор 30.03.26 17:24
Ответ: И сейчас

?: Здесь

ответ
Автор Автор 30.03.26 17:24
Ответ: И сейчас
magnifying_glass

?: Здесь

ответ
Автор Автор 30.03.26 17:40
Ответ: И с

?: Здесь

ответ
Автор Автор 30.03.26 17:40
Ответ: И с
magnifying_glass