如何查找论文是否被SCI,EI检索

学术界,尤其是国内学术界,把SCI,EI看得太重,很多大学都要求博士毕业要有SCI,硕士毕业要有EI文章。在加拿大,就我看来,不是很注重这一块,主要是分期刊和会议,另外就是业内有自己的标准,哪些是牛的期刊,哪些是一般的。甚至觉得有的好的会议比一般的期刊都要好,那种会议的每一篇稿件的审稿人有5到6个,通常回来的审稿意见都有论文本身那么长。

    无论如何,这是一个潮流,一个趋势,我们不仿也不得不见风使一下舵。在投稿的时候就考虑一下,调查一下,以免埋没了金子的发光,延误了它耀眼的时机。下面,就我的个人的一些了解和理解,写一点关于如何确认自己的文章是不是被SCI,EI检索的方法,希望对大家有所帮助,如写得不对,欢迎各位专家指正。

  • EI检索一般在Engineering Village 上进行查询。一般国内高校都会有图书馆的入口。这里要注意的是一般不选数据库直接进行搜索在Datebase选项后可能有两个数据库:Compendex(即EI网络版)和Inspec(英国科学文摘)。当你的数据库显示是compendex时,恭喜你,你的文章被EI收录。当你的数据库显示是Inspec时,表示未被EI收录,但是,未被EI收录可能被SCI收录!即Inspec数据库收录的文章虽然可能不是EI检索,但可能是SCI检索!有时候一篇文章会既被inspec,也被compendex收录。
  • "SCI(Science Citation Index)是美国科学信息研究所(ISI)建立的科技期刊文献检索系统,被SCI收录的期刊分为核心与外围两个范围。核心部分包括期刊3000多种,涵盖了全世界范围内各学科领域内的最优秀的科技期刊;外围部分包括核心部分在内,有期刊5000多种。外围部分的期刊虽然也是非常优秀的科技期刊,但与核心部分相比,学术水平相对低一些。
      《SCI光盘版》即SCI核心部分收录的期刊论文,《SCI网络版》即SCI外围部分收录的期刊论文"。
    SCI 检索我觉得有两种办法,一是直接去Thomson Reuters的网页看它的期刊列表:http://science.thomsonreuters.com/mjl/。直接在search terms下输入想要查询的内容。另外,在网页的下端有收录期刊列表选项注意有Science Citation Index 和 Science Citation Index Expanded(国内习惯称之为核心和扩展)可以更详细的查出关心的期刊是核心还是扩展。 另一种办法是直接查文章是不是被SCI收录。这时是去ISI Web of Knowledge(是Thomson Reuters的产品之一,国内大学图书馆一般都有入口)这时要注意选择网页上面的Web of Science,而不是All Datebases,  这样搜出来的才是表示被SCI收录的文章。

      查询的时候,注意在EI数据库里一般是将姓名写全(Qiaokang Liang),而在SCI里姓写全而名只用了第一个字母(Liang QK)。

  •     总结一下,
    1,如果查文章是不是被SCI检索:进入ISI Web of Knowledge,选择Web of Science 数据库,进行查询;
    2,如果查文章是不是被EI检索:进入EI Village, 选择Compendex 数据库,进行查询。

### EI会议列表及投稿截止日期 对于希望参与EI会议的研究人员来说,了解具体会议及其重要时间节点至关重要。通常情况下,不同EI会议的关键时间点会有所差异,主要包括以下几个方面: - **投稿截止日期**:这是作者向会议提交论文的最后期限。错过此日期可能导致无法参与该次会议[^1]。 - **通知接受日期**:在此日期前后,作者将会收到关于其提交稿件是否被接收的通知。 - **最终版本提交日期**:一旦论文被接受,作者需按照审稿意见修改并重新提交终版文档。 - **注册参会日期**:为了能够顺利出席并展示研究成果,在规定时间内完成会议注册是非常必要的[^2]。 值得注意的是,并非所有的会议都能获得EI索引收录资格;一些小型或者商业运作为主的活动可能不具备这一特性。因此,在选择目标会议时应谨慎评估其质量和影响力[^3]。 针对具体的EI会议列表以及最新的投稿截止日期信息,建议访问官方渠道获取最准确的数据。例如,IEEE旗下的多个国际研讨会均已被列入EI检索范围之内,可以通过IEEE官方网站查询到详细的日程安排和征文指南[^4]。 ```python import requests from bs4 import BeautifulSoup def get_ei_conference_list(url): response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') conferences = [] for item in soup.select('.list-item'): title = item.find('h3').text.strip() deadline = item.find(class_='deadline').text.strip() link = item.a['href'] conference_info = { "title": title, "deadline": deadline, "link": f"https://example.com{link}" } conferences.append(conference_info) return conferences url = "https://conferences.ieee.org/conferences_events/" print(get_ei_conference_list(url)) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值