Проект реализует команда психологов, социологов, историков и программистов ТГУ, руководитель – доцент факультета психологии Валерия Мацута. Исследование поддержано грантом РНФ (№ 19-78-10122 «Разработка алгоритма идентификации факторов риска безопасности пользователей социальных сетей на основе анализа контента и психологических характеристик его потребителей») до 2022 года, на его реализацию выделено 5 миллионов рублей.
«Мы проведем ряд анонимных психологических опросников и шкал, которые продемонстрируют уровень тревожности и стресса каждого участника, и выявим связь между полученными результатами и подписками на сообщества в личном профиле социальных сетей, – поясняет участник проекта, зав. лабораторией компьютерных средств обучения Института дополнительного образования ТГУ Артем Фещенко. – Обнаружение связей (маркерных сообществ) позволит прогнозировать наличие искомого признака у других людей. Например, если все люди, прошедшие диагностику и продемонстрировавшие высокий уровень стресса, подписаны на одно сообщество, то можно предположить, что у других подписчиков этой группы, которые не проходили диагностику, стресс также высок.»
В настоящее время база данных содержит 1500 анкет и профилей томских подростков. Всего в рамках проекта планируется опросить и проанализировать страницы «ВКонтакте» у 10 тысяч людей.
Как подчеркивают авторы исследования, процедура поиска аккаунта респондента в социальной сети и обнаружение связей между результатами опросника и подписками происходит с помощью программных алгоритмов без непосредственного участия человека-исследователя. Исследователи отмечают, что с точки зрения этики этот подход более корректен, и результат такого анализа не содержит персональных данных респондентов, цель – обнаружить закономерность в обезличенных агрегированных данных.
Помимо поиска в соцсетях подростков, которым требуется помощь, ученые ТГУ разрабатывают алгоритм для выявления небезопасного контента, например, группы поддержки отклоняющегося поведения (self-harm), группы ненависти (националистические, экстремистске, шутинговые) и подобные. По итогам будет создана база опасного контента и определены типы пользователей, проявляющих к нему интерес, распространители и создатели.
Проект реализует команда психологов, социологов, историков и программистов ТГУ, руководитель – доцент факультета психологии Валерия Мацута. Исследование поддержано грантом РНФ (№ 19-78-10122 «Разработка алгоритма идентификации факторов риска безопасности пользователей социальных сетей на основе анализа контента и психологических характеристик его потребителей») до 2022 года, на его реализацию выделено 5 миллионов рублей.
«Мы проведем ряд анонимных психологических опросников и шкал, которые продемонстрируют уровень тревожности и стресса каждого участника, и выявим связь между полученными результатами и подписками на сообщества в личном профиле социальных сетей, – поясняет участник проекта, зав. лабораторией компьютерных средств обучения Института дополнительного образования ТГУ Артем Фещенко. – Обнаружение связей (маркерных сообществ) позволит прогнозировать наличие искомого признака у других людей. Например, если все люди, прошедшие диагностику и продемонстрировавшие высокий уровень стресса, подписаны на одно сообщество, то можно предположить, что у других подписчиков этой группы, которые не проходили диагностику, стресс также высок.»
В настоящее время база данных содержит 1500 анкет и профилей томских подростков. Всего в рамках проекта планируется опросить и проанализировать страницы «ВКонтакте» у 10 тысяч людей.
Как подчеркивают авторы исследования, процедура поиска аккаунта респондента в социальной сети и обнаружение связей между результатами опросника и подписками происходит с помощью программных алгоритмов без непосредственного участия человека-исследователя. Исследователи отмечают, что с точки зрения этики этот подход более корректен, и результат такого анализа не содержит персональных данных респондентов, цель – обнаружить закономерность в обезличенных агрегированных данных.
Помимо поиска в соцсетях подростков, которым требуется помощь, ученые ТГУ разрабатывают алгоритм для выявления небезопасного контента, например, группы поддержки отклоняющегося поведения (self-harm), группы ненависти (националистические, экстремистске, шутинговые) и подобные. По итогам будет создана база опасного контента и определены типы пользователей, проявляющих к нему интерес, распространители и создатели.